顯示廣告
隱藏 ✕
※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2020-09-22 22:08:26
看板 Gossiping
作者 qazsedcft (自由羊)
標題 [新聞] AI 當法官,會是正義女神的化身嗎?專訪
時間 Tue Sep 22 02:46:37 2020



1.媒體來源:
natgeomedia


2.記者署名:
 劉芝吟


3.完整新聞標題:
AI 當法官,會是正義女神的化身嗎?專訪李建良


4.完整新聞內文:
人工智慧變身法律小幫手

十幾年前,電腦會揀土豆已經夠驚奇,現在的 AI 更是大進擊,能辨識人臉、駕駛汽車,根
據 2019 年眾多媒體報導,歐洲愛沙尼亞甚至即將推行「AI 法官」!法律事務涉及事實認
定、法條解釋與價值規範等多重問題,人工智慧果真已如此高「智慧」,有能力涉入複雜的
法律領域?


https://i.imgur.com/5IMIg2e.jpg
[圖]
前兩波人工智慧(AI)希望電腦能像人一樣思考,但皆失敗。2010 年至今的 AI 熱潮由「
機器學習」領銜,簡單來說就是我們提供大量資料,讓電腦自己找出事件之間的關聯規則,
學會判斷,在許多領域都已比人類預測得更精準。 資料來源│〈人工智慧在臺灣〉演講,
陳昇瑋

中研院李建良特聘研究員說:「將 AI 應用到法律訴訟其實並非未來式,而是行之有年的
在式。」

在美國,近年法院已廣泛運用「COMPAS」系統,這是一套由商業公司開發的 AI ,幫助法官
評估被告的再犯風險,作為量刑的準據。COMPAS 會進行大量問答調查,依據被告回答、年
齡、過往犯罪紀錄與類型等各項資料,推估被告的再犯率,給出 1-10 的危險指數,最後
由法官決定被告服刑的長短。


有研究指出,AI 判定為高風險者,63% 在交保期間犯罪,其中 5% 犯下性侵或謀殺。做
為法官小幫手,AI 似乎確實能發揮一定程度的「鷹眼」,預測危險性。

https://i.imgur.com/PL875Cm.png
[圖]
國內也逐步嘗試將 AI 運用在量刑與家事判決預測。司法院建立的「量刑趨勢建議系統」,
以自然語言分析判決書,提供類似案件的量刑參考。清華大學研究團隊則開發出「AI 人工
智慧協助家事判決預測系統」,讓 AI 從判例「學會」法官的判決模式,預測撫養權花落誰
家。 圖片來源│ 取自量刑趨勢建議系統網頁

法官不是人?!別急,再等等

從現況來看,人工智慧確實已進入國家司法系統,但目前仍作為「專家團隊」扮演輔助角色
,由法官做裁決。那麼下一步, AI 有可能獨當一面坐上審判席嗎?

愛沙尼亞的 AI 法官計畫,似乎就朝著這個方向前進。

根據報導,AI 法官將處理小額民事訴訟案件(少於 7000 歐元,臺幣約 24 萬),由原告
方輸入訴訟對象、金額、提告理由等。AI 系統能從過往大量判例學習,解析法條做出判決
。換句話說,隔壁鄰居摔壞你的 iPhone,你一狀告到法院,會由 AI 判定誰勝訴,鄰居該
賠你一臺手機或折價金額。對結果不服?可以上訴,將有人類法官審理。這項超級計畫如果
成真,「法官不是人」恐怕就要從罵人話變為描述句了!


不過,李建良特別澄清:「媒體報導後,我們研究團隊成員曾請教愛沙尼亞法界人士,目前
所知這是數位政府計畫的一部分,但應該還只停在『計畫』階段。」

他強調,若要把國家審判權完全交給 AI ,必定需要法源基礎,明確建立一套法規方案。由
於目前愛沙尼亞並沒有出現相關法規,這個突破仍是「只聞樓梯響」。

AI 法官的技術邊界:它能做出好判決嗎?

儘管 AI 尚未披上法官袍,但愛沙尼亞構想彷彿是驚天一雷,預示出可能的未來圖像。許多
人或許有同樣的好奇:AI 當法官究竟行不行?

李建良分成不同層次來討論:

"行不行有兩層涵義:能力上行不行,規範上可不可以。"

第一層次是「可能性」問題:AI 法官足以擔任人類法官的角色嗎?更直白地問:AI 真有那
麼厲害,能夠做出好判決?

要確認 AI 的能力,首先我們得問:什麼是好判決?

「這牽涉社會對法院判決的評斷標準。」李建良分析,一種標準是檢視「判決結果」;另一
種則是審視「判決理由」,法官在判決書詳述的心證,如調查結果、採信哪些證據、證據效
力、法條依據等。


若觀察近年臺灣社會的現象,大眾似乎較關注判決結果。好比引發社會矚目的「臺鐵殺警案
」,這樁尚未確定的爭議案件,引發了司法當局對司法鑑定制度的重視與檢討,而輿論譁然
多半是殺人無罪的結論,批評法官「不接地氣」,關於心證過程的討論相對較少些。


換言之,假如重視結果,那不難想像 AI 法官有能力透過歸納、類比分析對案件做出判決。
但若我們在乎法官為什麼、如何做出裁決,依照目前技術和愛沙尼亞計畫,AI 所產出的可
能只有答案,但沒有理由(或較簡式的理由)。


這形成了第一重挑戰:

"若 AI 法官無法清楚說明理由,我們如何檢視它的判決好不好?有沒有瑕疵?"


有些人也質疑,AI 的精準、一致可能反倒是弱點。現行 AI 不具有真正理解他人的能力,
無法實際參與答辯交鋒和開庭審理,而許多訊息來自臨場、個別案例的判讀,並非用數據化
與資料化就足夠解釋,背後涉及文化、風俗、情境常識,相當複雜。



https://i.imgur.com/ml6ADKW.jpg
[圖]
目前的人工智慧仍屬於「弱 AI」,沒有意識、思考能力,只是透過巨量資料與機器學習歸
納出已知和未知之間的關聯。哲學家 John Searle 曾用「中文房」譬喻提出挑戰:如果 AI
 並不了解真正意涵,就算它能和人一樣做出正確回應,似乎也不代表它就有獨立的心靈意
識。圖說設計│ 劉芝吟、林洵安

不過,AI 派並沒有全輸!

首先,技術可能超前突破,讓 AI 未來也有能力寫判決書、說明論證。另外若拿現行制度相
比,美國陪審制同樣只宣告:「陪審團認為無罪」,不會附上理由。更何況所謂的情境判斷
,經常也會造成主觀性偏誤,《美國國家科學院院刊》(PNAS)研究發現,接近午餐時間法
官對假釋認定較嚴格,用餐休息後,假釋審查就變寬鬆了!


想要假釋,還得祈禱法官吃飽飽?恐怕多數人難以接受。

鐵面無私包青天? 小心 AI 的內建歧視
總地來說,理性、客觀幾乎是 AI 的最大光環,以準確一致的邏輯做判斷,不受法官個人情
緒與好惡影響。

但真是這樣嗎?許多研究證實:AI 默默戴上了有色眼鏡! COMPAS 系統被抨擊帶有種族歧
視,有色人種更容易被預測為高再犯率;亞馬遜招聘、蘋果信用卡信貸系統都曾被發現隱含
性別差別待遇。


「這就如同人類一路走來看到的歷史不平等。」Amazon 資訊科學家說。

AI 系統在資料學習的過程,複製了人類長年累積的性別、種族、階級偏見。即便這些偏見
已長久存在,但 AI 可能更強化不平等,因為人們會在毫無所覺下,信任科技工具的「客觀
」訊息,對陌生人打分數。


然而,科技支持派沒有全盤放棄。AI 歧視是學來的,因應之策是在資料訓練時降低這些「
標籤」,並且提供多樣性的資料。此外,比起人類刻意包裝、掩飾偏見,AI 反而有機會讓
偏誤被「顯題化」,讓我們更加警覺,並進行修正。


綜合而論,若單從技術可能性評估,目前的 AI 也許不夠「聰明」,但是只要科技持續追求
突破、進展,似乎沒有理由全盤否定 AI 法官可行性。畢竟,人類同樣也會犯錯、誤判、有
偏見。


「從能力來看,AI 確實可以幫助人類、補位弱點,很值得期待未來發展。」李建良持平分
析:「但國家是否應該開放制度,更重要的仍在第二層次的考量。」

AI 法官需要明確法源基礎
他點出更關鍵的第二層議題:從規範角度來看,讓 AI 當法官可不可以?

簡單來說,即使人工智慧有能力獨立分析、判決,我們應該把審判大權交給 AI 嗎 ?是否
可能衍生倫理問題?

「第一個遇到的是:需不需要修憲?這是多數人忽略的框架。」專研憲法、行政法的李建良
特別指出。法官的身分保障及審判獨立的要求是直接寫在憲法上頭的,但憲法規定的法官是
不是專指「人」呢?法學界可能有不同論述。


如果憲法說的法官專指「人」,也就是法官審判權奠基在人的前提,勢必需要修憲。反之,
就算憲法允許「非人」擔任法官,仍然需要修法 ── 如同剛拍板的《國民法官法》,國家
同樣必須建立一套法制來規範非人法官。例如,適用民事或刑事案件?能上訴嗎?上訴後交
給另一位 AI 法官(AI 會有不同法官嗎?)或者由人類法官打掉重來?


價值選擇的難題:科技優勢 VS 法律原則
法源基礎僅是第一步,對整個社會而言,AI 法官挑戰的是價值選擇的難題。

2013 年,美國威斯康辛州法院參酌 COMPAS 風險指標,判處被告 Eric Loomis 6六年徒刑
。Loomis 不服而上訴最高法院,認為法庭以 AI 系統裁決是一種「祕密審判」!要求說明
COMPAS 系統如何演算判斷出危險值。


這個案例顯然暴露了 AI 法官的價值衝突:演算法黑箱(black box)

「在民主法治國家,法官不是個人,他代表的是國家。審判必須在公開透明的運作下,被監
督、檢驗、究責。」李建良說:「法院公開審理、法官說明判決理由,都是來自這種被檢驗
的要求。」


倘若披上法官袍的 AI ,無法開庭、詰問、說明判決理由,讓審判攤在陽光下,勢必挑戰現
行的法院體制,也可能稀釋透明、公開、負責的司法價值。我們無從知道它為何會做出 A
判決,而不是 B 判決,不能確定它有沒有失誤,也難以確認責任歸屬。


Loomis 案也突顯出另一挑戰:代罪羔羊! AI 推測來自過往的資料,但「相似條件的其它
人這麼做,不代表個別主體也會這麼做」。

這同時讓人擔憂 AI 的「因襲性」:社會信仰的美好價值是不斷翻轉、改變,有時正是因為
劃時代的法院判決,才讓我們終於能破除傳統、確立新價值,例如美國法院推翻種族隔離平
等制度,AI 法官會不會弱化、壓縮了法律肩負的深刻意義?


李建良直言,第一層次的「能力可行性」是人與 AI 的 比較參照,AI 能做到什麼,補足哪
些人類弱點,帶來什麼優勢。

"但最終,「倫理辯證」仍是無可迴避的關鍵核心,當新科技打破、牴觸基本價值,我們是
否願意為了科技可能提供的「客觀公正」,放棄退讓這些原則?"

https://i.imgur.com/L9sovkr.jpg
[圖]
我們願意授權給一套科技系統,讓它判定人們是否有罪,剝奪我們的人身自由(甚至生命)
嗎?李建良認為,AI 法官的倫理爭議勢必挑戰人類的信任邊界,最終將深刻探問人類對科
技制度的核心信念。圖片來源│ iStock

人文關懷,也是艱困的價值論辯
「這不會是全面贊成/反對的選擇題,因為 AI 法官很難普遍性適用每一種案件。」李建良
強調。

AI 在資料統整、數據分析上已大放異彩,導入科技新工具、人機合作,可以減輕法院負擔
,也拉近一般人與訴訟裁決的距離。然而,法律範疇高度複雜,即便未來開放 AI 法官,也
必定是在特定的條件、脈絡與案型。


他以行政法說明,「大埔農地要不要徵收?美麗灣渡假村能不能蓋?這類行政法案件極度複
雜,牽涉環保、制度、法規多重衝突,還有價值選擇的命題,不太可能由 AI 獨立裁決。」

更重要的是,即使技術邊界有機會突破、修正,讓 AI 愈來愈聰明,我們也不應迴避第二層
次的倫理辯證。這也正是人文學科最重要的價值關懷。

「我們很容易倒過來想,認為有這麼多好處,為什麼不開放、不使用?但人文學者關注的是
價值倫理,一旦越過了某些界線,無論多少優勢,我們都必須謹慎、嚴肅地看待。」李建良
提出艱難考驗做類比:


"當你明確知道這人是兇手,卻沒有任何證據,這時我們要不要放棄無罪推定,不計手段堅
持罪有應得?這就是價值選擇的論辯。很困難,但很重要!"

「人文學者的使命,是預先關切各種可能的問題。」面對 AI 大躍進,李建良集結法政、社
會、哲學學者展開長期跨領域計畫,關切 AI 應用的人文思辨。他這麼說:「客觀來看,目
前的 AI 技術還無法高度涉入法律系統,但當我們做更多思考對話,才能讓社會更清楚彼此
的價值、信念與方向。」 攝影│林洵安
https://i.imgur.com/BtxnJ8s.jpg
[圖]


5.完整新聞連結 (或短網址):
https://www.natgeomedia.com/science/article/content-12049.html
AI 當法官,會是正義女神的化身嗎?專訪李建良 - 國家地理雜誌中文網
[圖]
Alpha Go 打敗人類棋王,自駕車躍躍欲試,人工智慧不僅改變世界運作的規則,也逐漸從科技跨入人文社會領域。讓 AI 坐上審判席,會是追求正義的新解方嗎?AI 法官是鐵面無私的包青天,或者科技暴走的新危機?「研之有物」專訪中研院法律學研究所特聘研究員李建良,從法學視角提供思辨觀點,我們不只應審視  ...

 


6.備註:

小筆記
⑴愛沙尼亞推動AI 法官還滯留在計畫階段
⑵現行制度已引入AI 協助法律工作
⑶AI法官 難以檢驗,且可能因「客觀」的既定印象更加深歧視,再者AI 的因襲性恐難面對
不斷變遷的社會。
⑷AI法官 需要法源基礎
⑸不代表AI 法官必定不好,而是在制度下還需要更多討論

--

一篇好的新聞是歷史的初稿

惟其不怕頭破血流,才配做新聞記者-成舍我

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.165.105.60 (臺灣)
※ 文章代碼(AID): #1VQFKF8X (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1600713999.A.221.html
※ 編輯: qazsedcft (118.165.105.60 臺灣), 09/22/2020 02:47:09
niburger1001: 支持初音當法官1F 09/22 02:49
wilson3435: 這是一個好方向, 我的夢想是有一天高官全都AI,人類管2F 09/22 02:49
wilson3435: 事的上限就那樣了,自私是人的天性
pinhanpaul: 免費玩家還想要無罪判決?4F 09/22 02:52
vwwv: 樓上弱ai會完全複製人類自私的天性,就如同文中的隱性歧視一5F 09/22 02:53
vwwv: 樣,所以除非ai發展出現奇點
s9234032: 誰決定演算法 誰就決定了權力7F 09/22 02:53
\支持演算法民主化/
StylishTrade: 強AI會把人類當奴隸8F 09/22 02:53
※ 編輯: qazsedcft (118.165.105.60 臺灣), 09/22/2020 02:54:31
StylishTrade: 人類的未來 顆顆9F 09/22 02:54
qq204: 比自由心證的廢物法官好10F 09/22 03:00
arrenwu: 愛沙尼亞那個看起來就只是嘴砲而已。一個沒有裁判書的11F 09/22 03:06
arrenwu: 判決等於是大家可以隨便上訴 反正也不知道怎麼判的
s9234032: 其實看立法院就知道了阿,反正就那種鳥樣子13F 09/22 03:11
s9234032: 除非來個天網消滅人類,不然只是換個形式的剝削而已
wilson3435: 我就是希望強ai 控管全人類啊15F 09/22 03:13
eric21489: training data別用台灣的或許可行16F 09/22 03:15
arrenwu: 強AI............ 真的是連個影子都沒有XDD17F 09/22 03:16
d22426539: ai懂可教化嗎18F 09/22 03:18
kkkaq123: 這樣誰把握了程式語言 誰就是勝訴判決 如果矛盾對決 AI19F 09/22 03:23
kkkaq123: 要怎麼玩 直接罷工嗎
wu73: 推21F 09/22 03:23
tw4563335: 臺灣都恐龍法官 AI學完不就也變恐龍?22F 09/22 03:32
tw4563335: ?
lesterc: 終於24F 09/22 03:50
allenlee6710: 正義跟公平沒有絕對的答案 某種程度只是換成工程師25F 09/22 04:14
allenlee6710: 宣判罷了 就算是演算法 也要有人告訴電腦對不對
arcysaint: 支持啊,效率大幅提高還大幅減少成本27F 09/22 04:36
arcysaint: 一堆自由心證遠遠不如立個中央標準
chou3321: 大概有生之年都不會實現啦29F 09/22 04:48
crazycomet: 會不會有超強駭客進入30F 09/22 06:43
riker729: AI是需要學習的 但我猜學歷史判決可能就當機了31F 09/22 06:45
riker729: 一堆案例相當判決相反 或一二審180度轉彎
lulocke: 大概全國律師都反對 這樣很難騙法官33F 09/22 07:06
froce: 當你的判例都是恐龍的標準時,AI也只會判出恐龍能接受的結34F 09/22 07:44
froce: 果。
s900527: 台灣人素質真的太低~~一堆人不懂XD36F 09/22 10:04
lavign: 決策支援的建議而已 就像幕僚一樣37F 09/22 10:12
lavign: 決行的還是人類法官
aabb177: 簡單的沒問題 難就難在複雜的案子和莫名其妙的案子39F 09/22 10:22
tom12122323: 西比拉系統40F 09/22 10:55
doomx: 笑死人,現在的法官判的好不好有差嗎?41F 09/22 11:41
doomx: 現行制度無任何抗衡方法,換成AI有差嗎?

--
※ 看板: Gossiping 文章推薦值: 1 目前人氣: 0 累積人氣: 122 
作者 qazsedcft 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
( ̄︶ ̄)b darkrise1980 說讚!
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇