此網頁需要支援 JavaScript 才能正確運行,請先至你的瀏覽器設定中開啟 JavaScript。

Multiple legal thinking on algorithmic governance under fair trust – philosophy of justice, fair competition, governance transformation and accountability mechanism

23 August 2024

16:10-17:20

301

Session Description:

本次⼯作坊提案為「公平信賴下演算法治理的法律多重思維」,希望分從正義哲學、公平競爭、治理轉型與 課責機制等規範治理與監管⾓度,探討⼈⼯智慧技術下演算法衍⽣的多⾯向法律議題,共同探尋實踐科技賦權、公平近⽤與社會共好的⼈⼯智慧治理路徑。

從「正義哲學」談演算法治理的公平與信賴: ⼈⼯智慧技術蓬勃⼜急速發展下,囿限⽬前於治理與管制 框架的有限性,數位科技⾰新反⽽可能造成個⼈基本權利、 社會正義和環境永續的潛在威脅。⼈⼯智慧系統 預設的演算法,能否適當反映各種價值觀,做出符合⼈性、⼈權及社會正義之判斷?演算法若缺乏透明度與可解釋性, 會否削弱⼈⺠對科技發展之信賴? 從Rawls的正義觀-「正義即公平」要求檢視演算法透明性,或許能為科技實現核⼼價值-包含公平性(fairness)、非歧視(non-discrimination)、安全與保全(safety and security)等指引治理規範的論證基礎。

從「公平競爭」談演算法治理的公平與信賴: 隨著數位轉型的加速以及⼈⼯智慧的廣泛應⽤,演算法歧視/偏⾒問題喚起了科技倫理與公平正義的反思,尤其數位交易、數位⾦融與數位商務運⽤巨量數據中進⾏預測、操控與決策,當中所隱藏的分配不平等危害形成新型態數位弱勢階級。⼈⼯智慧系統預設的演算法如何影響商業決策與消費服務?公平交易與禁⽌不正競爭法規如何規訓科技創新運⽤界限?從⾃由與公平競爭⾓ 度來劃定⾦融科技演算法的框架,落實維護交易秩序與消費者利益,或許能重新形塑數位經濟與公平近⽤間 的社會福祉均衡。

從「治理轉型」 談演算法治理的公平與信賴: ⼈⼯智慧技術快速地演化與疊代改變了我們既有的科技與社會的想像與安排,讚頌⼈⼯智慧萬能的迷思帶來盲從與依賴科技權威的隱憂。⼈⼯智慧系統預設的演算法會否再現不公平奴隸階級於科技社會中?虛幻的科技信賴是否反⽽危害⺠主開放社會的批判性思維?從科技賦權和公眾參與的憲政理論尋覓⼈⼯智慧公共化的正當性基礎,或許能為擺脫數據霸權寡占、參與式科技治理與重建數位信賴的公正轉型開創新模式。

從「課責機制」談演算法治理的公平與信賴: ⼈⼯智慧技術的可責、當責、 問責等課責機制向來作為對接科技發展的配套設計⽽備受重視,只是現⾏以⼈作為責任主體的法制預設,不論是⾏政法管制體系抑或⺠事責任法制度對於新興⼈⼯智慧技術究責的捕捉仍相當幽微。⼈⼯智慧系統預設的演算法應⽤下所應當承擔的法義務、可能造成權利或利益受損態樣以及對應的責任架構與風險移轉/分散,甚且對於主體性論述的後設挑戰,在在挑戰當代公平課責規範的法規建構與典範轉移。

Moderator:

  • 林常青

Speaker:

  • Ron Kuo
  • Hung-Yu Chuang
  • Shao-Man Lee
  • Wan-Ju Yeh
YouTube:
Zoom: