核心提示: 澎湃新聞:您對人工智能的未來持一個相對不樂觀的態度,霍金、比爾·蓋茨等人也對超級人工智能的研究提出警告,有相當一部分人類對超級人工智能是懷著恐懼心理的。那么,二戰后兩大陣營也一度被核恐懼籠罩,那時候...
澎湃新聞:您對人工智能的未來持一個相對不樂觀的態度,霍金、比爾·蓋茨等人也對超級人工智能的研究提出警告,有相當一部分人類對超級人工智能是懷著恐懼心理的。那么,二戰后兩大陣營也一度被核恐懼籠罩,那時候人類也具備了自毀能力且保持到現在,這種恐懼與對超級人工智能的恐懼有什么異同?
趙汀陽:核戰爭當然是具有毀滅人類能力的威脅,但核武器有著“確;ハ啻輾А钡睦硇跃,因此不如人工智能的潛在威脅那么大。我覺得,人類自己能夠做主的危險不如由別的物種做主的危險那么深不可測。
因此,這也就決定了司法的審判過程不僅僅是一個固定不變的司法公式,還需要很多的價值判斷和人類情感、國家政策等因素考量。而人工智能想要代替法官,首先需通過運算法則將法官的裁判工作進行程序化。
但是,在司法實踐中,法官對于個案作出判決的推理過程十sanqianfo.com三千佛分復雜,這需要判斷證據的真實性和證明力度、解讀法律條文及相關司法解釋的含義和目的,并正確運用到案件中去。由于每個案件發生的背景和結果不相同,法官還經常需要在情與法中進行利益權衡。
除此之外,在法庭上,當事人在法庭上的表現也會影響到法官的判斷。這也就決定了,即便是基于客觀事實并根據法定程序做出判斷的人工智能,也很難實現真正的公正。正如國外一份報告顯示:“即使是算法最復雜的AI(人工智能系統)也會繼承創造它們的人的那些關于種族和性別的偏見!