人工智慧技術的迅猛發展及其在社會各領域的廣泛應用,帶來了一系列風險挑戰。如何對人工智慧倫理風險進行道德治理,成為人們不得不認真思考的重要問題。按照傳統責任理論,由某項技術所引發的道德責任須根據過失的大小分配給該技術的設計師、製造商、使用者、監管者等人類主體。但由於人工智慧具有顯著的自動化特徵,如果將其排除在道德責任之外,可能會造成“責任空場”。因此,建立完善的人工智慧道德治理體系,必須破解該技術在道德責任歸屬時面臨的難題。
有限責任
人工智慧責任歸屬的第一個難題是人工智慧是否有資格成為某一事件(或後果)負責任的行為者,而不只是由人類操控的技術工具。這需要回答人工智慧是否具備就承擔責任而言的最低限度的道德認知能力和道德自主性。人工智慧是用計算機來模擬和實現的“類人智慧”。它將外部環境資訊轉換為輸入資料,並透過從資料中生成的特徵量對輸入資料進行處理,實現資料輸出。人工智慧的輸入和輸出過程,可以理解為它感知外部環境資訊和根據感知資訊而採取特定行動的過程。人工智慧的行為選擇是基於對外部環境的判斷所作出的能動反應。相較而言,傳統計算機程式根據設計好的函式完成資料的輸入與輸出,其對外部環境的反應是被動的。此外,人工智慧還可以進一步插入道德演算法,將人類對道德重要性的理解轉譯為人工智慧資訊處理和決策的邏輯規則,使其從前瞻性意義上遵守社會道德要求,作出負責任的行為決策。
人工智慧的特殊性在於其獨特的學習演算法。透過多層處理,低層次的特徵表示轉化為高層次的特徵表示,使人工智慧具備了完成複雜任務的能力,可以模仿特定的人類行為。例如,AlphaGo透過神經網路的深度學習和反覆自我博弈的強化學習,不僅提高了其在圍棋博弈中的預測能力,而且還發現新的遊戲規則,走出了新策略。這裡,學習演算法是由人類設計師預先規定的,但AlphaGo透過機器學習而作出的行為決策卻不是人類設計師決定的。人工智慧具備了確定但有限的自主性、互動性及行動能力,可以在特定環境中獨立作出行為決策,故可對其進行道德歸責。而承認人工智慧可在最低限度上進行責任歸屬,就肯定了其在道德治理體系中有限的能動地位。
非意圖責任
第二個難題是人工智慧遵循數學、物理學等自然定律,缺乏“能夠承擔責任的感覺”。對責任的主觀感受首先表現為行為者的主觀意圖,即行為者對行為的意義的認識,希望或想要以某種方式行動的態度。儘管主觀意圖確實影響了人們對行為者進行道德譴責或懲罰的力度,但它並非責任歸屬的必要條件。從道德實踐上看,主觀意圖作為行為者的內在狀態,很難對其作出準確評價。而且,人們進行責任歸屬的目的在於,透過對損害性後果的回溯性評價,來確定導致該後果的行為者原因,不論行為者是否有主觀意圖。德國學者奧特弗利德·赫費以俄狄浦斯為例,說明這種無過錯責任在史前社會普遍存在:責任是客觀的,即便行為者不存在任何主觀過錯,也需要承擔道德責任。按照客觀性原則對人工智慧進行責任歸屬,主要考查損害性後果以及行為與後果之間的因果關係即可,不必再關注行為者的主觀意圖。
對責任的主觀感受還表現為行為者因自己的行為而產生的自責、懊悔等反應性態度,因而承認自己本來可以按照其他方式而行動。人工智慧缺乏感受性,很難想象它會產生任何形式的痛苦或內疚,那麼,對人工智慧進行責任歸屬並實施道德懲罰是否還有意義?就反應性態度而言,他人的反應性態度而非行為者的自我反應性態度才是責任歸屬的動力。他人的責備和怨恨不僅是他人對某一事件(或後果)所作出的價值評價,也是在評價基礎上對行為者所作出的反應。責備和怨恨允許行為者提出免於被責備的理由。但與此同時,如果行為者與某一事件(或後果)的因果責任極其顯著,引發他人強烈的責備和怨恨反應時,他人將拒絕人工智慧以技術作為其免責理由。就道德懲罰而言,懲罰作為“對過去錯誤的一種自然報復”,在現代社會逐漸喪失其道德正當性。道德責任並不必然要求對行為者進行道德懲罰,而是要求行為者正視、改正或補償自己的道德過錯,同時儘量避免發生類似的道德過錯。就此而言,要求人工智慧承擔道德責任是可行的。
共同責任
第三個難題是對人工智慧進行責任歸屬,是否會削弱人類的道德責任或威脅人類的責任主體地位。答案是否定的。對人工智慧的正確歸責有助於明確人類與人工智慧的責任邊界,從而強化人類的道德責任。人類設計師、製造商、使用者等參與了人工智慧的理論創新、技術研發、生產製造、實踐應用等環節,相應地承擔著內在知識的責任、科學實驗的責任以及將科學付諸實踐的責任。這些多元主體在該技術設計—生產—應用鏈條上分工合作,由此發展出一條責任鏈:沒有哪個單獨環節承擔單獨的責任,每個環節都是責任的一部分,而這部分責任又不得不與這個環節對整個行為所承擔的責任相聯絡。正如赫費所言,誰為別人能夠做這件事創造了一些前提條件,他就要為這件事負有共同責任。相反,如果他們沒有看到這種關係,或者不能看到這種關係,就會產生責任歸屬的要求,應該為此設定能夠監督責任履行的機構。該機構對人類設計師、製造商和使用者的履責行為進行監督和管理。人類行為者不僅不能免除道德責任,還需承擔起相應的賠償或補償責任。
在道德實踐中,人類行為者將一部分道德授權給人工智慧,如允許智慧搜尋引擎對敏感詞進行篩查並遮蔽等。授權行為意味著一部分道德資本由人類行為者轉移給人工智慧,使後者代替人類行為者履行一定的社會職責。對人工智慧的道德授權是否意味著道德責任的授權?這取決於授權是對道德行為本身的授權還是對道德行為座標(即只為人類道德決策提供反饋資訊)的授權。對道德行為的授權,意味著道德上的善惡及責任在人工智慧與人類所組成的多智慧體系統中分佈。此時,人工智慧替代人類行為者參與到現實的社會分工之中,成為社會系統的重要組成部分,因而,需要承擔由社會分配給該職責的道德責任,即分散式道德責任。對道德行為座標的授權,仍將人類作為道德責任的中心並透過人工智慧實現人類的道德意圖,人工智慧僅需承擔擴充套件式道德責任。不論分散式還是擴充套件式道德責任,都沒有免除人類在道德治理中的主體地位。
總之,人工智慧道德治理的關鍵在於立足一種新的開放性責任理論對人工智慧進行責任歸屬。首先,人工智慧的道德責任是無過錯責任。人工智慧責任歸屬的目的是依據客觀性原則對道德行為及其後果進行正確歸因。特別是當多行為主體共同參與某一行為決策時,正確歸因有助於及時糾正錯誤。其次,人工智慧能夠且僅能承擔與其智慧水平和自治能力相適應的道德責任。當前廣泛應用的弱人工智慧的道德責任與其具備從大資料中自行提取特徵量的能力密切相關。對其責任歸屬不能整齊劃一,需要根據其自動化等級分級對待。超出其能力範圍的道德責任仍需由人類行為者承擔。再次,人工智慧的責任歸屬要求對人工智慧演算法進行回溯性實驗直至找到演算法缺陷或程式漏洞。人工智慧承擔責任的方式包括最佳化演算法、程序升級、暫停或永久停止使用。相應的補償或賠償責任也需由人類行為者承擔。最後,人類設計師應監督和激勵人工智慧不斷積累道德經驗,將道德經驗轉化為道德演算法或新的特徵量,儘量減少未經預料的道德情形和兩難困境。在計算機領域,透過程序升級修正漏洞的情形很常見,這也要求對人工智慧的道德錯誤進行合理認識和總結。
(本文系國家社科基金一般專案“人工智慧的責任倫理研究”(19BZX109)階段性成果)
(作者單位:寧波大學馬克思主義學院)
來源:中國社會科學網-中國社會科學報 作者:曲蓉