文丨曹建峰
人工智能事故的責(zé)任是AI時(shí)代的核心問題
深度學(xué)習(xí)的“黃金十年”之后,AI時(shí)代已然到來,AI系統(tǒng)已然成為21世紀(jì)最顯著、最重要的技術(shù)物之一,不斷催生出各種新的智能產(chǎn)品、服務(wù)和應(yīng)用,諸如Robotaxi、AI陪伴應(yīng)用、人形機(jī)器人等。而且,在規(guī)模法則(scaling law)的引領(lǐng)下,以大模型為代表的AI技術(shù)仍在加速發(fā)展,甚至引發(fā)了“AI加速主義 VS AI價(jià)值對齊”的發(fā)展理念分歧。AI領(lǐng)域的知名專家學(xué)者紛紛預(yù)言AGI的到來時(shí)間,設(shè)想未來十多年的變革與影響。這場AI革命將帶來什么樣的變化和影響,也許是人們現(xiàn)在還無法全面預(yù)估的,但我們至少不應(yīng)低估AI技術(shù)的長期影響。
目前看,AI技術(shù)的發(fā)展和應(yīng)用,不僅讓各種產(chǎn)品正日益成為具有自主智能的產(chǎn)品,而且讓人們從互聯(lián)網(wǎng)時(shí)代加速進(jìn)入以算法、機(jī)器人和AI智能體(AI agent)作出經(jīng)濟(jì)和社會(huì)決策為核心特征的AI社會(huì)或者說算法社會(huì)(algorithmic society),算法由此成為支持網(wǎng)絡(luò)化、數(shù)字化、智能化發(fā)展的核心技術(shù)因素。這可以帶來安全和效率的顯著提升,但無法保證消除所有的事故和風(fēng)險(xiǎn)。沒有絕對安全的技術(shù),技術(shù)在減少、消除某些方面的風(fēng)險(xiǎn)的同時(shí),卻可能在其他一些方面制造新的風(fēng)險(xiǎn)。近年來,給他人權(quán)益造成損害的AI事故快速增加,從自動(dòng)駕駛汽車和有形機(jī)器人的安全事故到AI診療軟件的錯(cuò)誤診斷再到各種自動(dòng)化決策系統(tǒng)的算法歧視、不公平?jīng)Q策,可以說,AI事故和AI侵權(quán)正日益成為AI社會(huì)的“新常態(tài)”。根據(jù)OCED對全球范圍內(nèi)的AI事故的監(jiān)測,2014年1月以來全球AI事故快速增加,截至2023年12月總數(shù)已達(dá)7195起。例如,2024年10月以來,AI聊天機(jī)器人平臺Character AI面臨導(dǎo)致美國青少年自殺等爭議,已成為至少兩起訴訟的被告,原告主張character AI存在設(shè)計(jì)缺陷,屬于缺陷產(chǎn)品,要求其開發(fā)者承擔(dān)產(chǎn)品責(zé)任。
在人工智能的應(yīng)用無處不在的今天,人們必須正視AI事故和AI侵權(quán)的法律責(zé)任問題。當(dāng)AI系統(tǒng)造成事故和損害,法律必須給受害人提供公平且有效的救濟(jì)。但問題是,誰應(yīng)為AI事故和AI侵權(quán)負(fù)責(zé)?高度自主的AI系統(tǒng)可能在沒有直接的人類控制、干預(yù)或監(jiān)督下獨(dú)立采取行動(dòng)或作出決策。這意味著,在人工智能語境下,由于相關(guān)的行為和決策從人類轉(zhuǎn)向智能系統(tǒng),事故和損害也開始從由人類和人類行為造成轉(zhuǎn)向由AI系統(tǒng)及其行為造成。這種轉(zhuǎn)變給法律責(zé)任的分配和承擔(dān)提出了挑戰(zhàn)。相關(guān)挑戰(zhàn)不僅在于識別責(zé)任主體的困難,而且在于AI系統(tǒng)的自主性、不可解釋性、不可預(yù)測性等諸多特征給證明過錯(cuò)/缺陷、因果關(guān)系等責(zé)任構(gòu)成要件帶來的困難,更在于AI侵權(quán)的責(zé)任承擔(dān)方式的難題(例如,如何針對AI系統(tǒng)采取行為禁令、關(guān)停等懲罰措施)。
AI侵權(quán)責(zé)任的三種新方案真的可行嗎?
為此,有人提議針對AI侵權(quán)建立全新的責(zé)任制度,大致包括三種方案。
一是人格方案,簡單來說就是賦予AI系統(tǒng)法律主體地位,從而AI系統(tǒng)可以對自己的行為直接承擔(dān)法律責(zé)任。將自主的、復(fù)雜的AI系統(tǒng)視為獨(dú)立的法律主體,從而將侵權(quán)責(zé)任從人類轉(zhuǎn)嫁給人工智能,是一個(gè)很有誘惑的想法。歐盟立法者曾提議為自主機(jī)器人創(chuàng)設(shè)“電子人”的特殊法律地位,但最終否決了這一想法。一些學(xué)者提出可以賦予AI系統(tǒng)類似于有限責(zé)任公司(LLC)的法人地位,以解決責(zé)任承擔(dān)的難題。人們設(shè)想,就像大模型可能讓“1人公司”成為現(xiàn)實(shí)一樣,未來人工智能的發(fā)展也可能讓“0人公司”成為現(xiàn)實(shí),即具有自主行動(dòng)能力的AI系統(tǒng)(agentic AI)就可以獨(dú)立運(yùn)營一家公司,而不需要任何的人類雇員。
二是替代責(zé)任、基于高風(fēng)險(xiǎn)的無過錯(cuò)責(zé)任等新型責(zé)任方案,根據(jù)一種理論,尤其是在替代型人工智能的情況下,如果企業(yè)使用AI系統(tǒng)來替代人類雇員,就應(yīng)對所謂的“AI雇員”的行為承擔(dān)替代責(zé)任,因?yàn)檫@符合功能等效原則(functional equivalence)。隨著大模型的能力的持續(xù)增強(qiáng),可以憧憬,未來人們不僅可能會(huì)有可以真正代替自己行事的個(gè)人AI助理,而且可能會(huì)和所謂的“AI同事”一起工作和協(xié)作。因此,讓經(jīng)營者對“AI雇員”的行為承擔(dān)替代責(zé)任,似乎合情合理。另一種思路是,立足于基于風(fēng)險(xiǎn)的AI監(jiān)管路徑,讓提供者、所有人、使用者等主體對高風(fēng)險(xiǎn)AI系統(tǒng)造成的損害承擔(dān)無過錯(cuò)責(zé)任。例如,歐盟人工智能法案的核心思路就是,基于AI風(fēng)險(xiǎn)類型化,重點(diǎn)對高風(fēng)險(xiǎn)的AI系統(tǒng)采取安全監(jiān)管,并禁止具有不可接受風(fēng)險(xiǎn)的AI系統(tǒng)。
三是保險(xiǎn)方案,對于完全自主的AI系統(tǒng)造成的損害,可以考慮用社會(huì)保險(xiǎn)、賠償基金等基于保險(xiǎn)的無過錯(cuò)賠償機(jī)制完全取代現(xiàn)有的侵權(quán)責(zé)任制度,因?yàn)槔@開侵權(quán)法將避免將現(xiàn)有責(zé)任規(guī)則適用于人工智能所面臨的諸多困難。在過去,無過錯(cuò)賠償機(jī)制完全取代侵權(quán)損害賠償?shù)睦硬⒉货r見,工傷、交通事故、醫(yī)療傷害、疫苗損害等領(lǐng)域存在類似的做法。
AI侵權(quán)責(zé)任制度的構(gòu)建需要走出幾個(gè)誤區(qū)
然而,這些關(guān)于AI侵權(quán)責(zé)任的新方案過于激進(jìn)、難以確保安全與自由的平衡,不僅不符合我們依然處于AI革命的發(fā)展早期和弱人工智能時(shí)代的社會(huì)現(xiàn)實(shí),而且是基于幾個(gè)需要避免的歸責(zé)誤區(qū)。
誤區(qū)1:針對人工智能自身進(jìn)行歸責(zé)。
針對AI系統(tǒng)自身進(jìn)行歸責(zé),意味著將AI系統(tǒng)視為法律主體。然而,在現(xiàn)階段,人工智能的法律人格在道德上是不必要的,在法律上是自找麻煩的。支持AI法律人格的大部分論點(diǎn)既過于簡單又過于復(fù)雜,過于簡單是因?yàn)槿斯ぶ悄艽嬖谟谝粋€(gè)界限模糊的范圍內(nèi),目前還不存在可以被承認(rèn)為法律主體的有意義的類別;過于復(fù)雜是因?yàn)樵S多論點(diǎn)是“機(jī)器人謬誤”(比如認(rèn)為機(jī)器人就像人類一樣)的變體,基于對人工智能未來發(fā)展的似是而非的假設(shè)。目前看,授予AI系統(tǒng)法律人格并非解決它們“行為”責(zé)任的“靈丹妙藥”,反而可能打開“潘多拉魔盒”,引發(fā)了一系列新的法律和倫理問題,尤其是,AI法律人格將很容易導(dǎo)致濫用,成為一種避免和轉(zhuǎn)移法律責(zé)任和義務(wù)的機(jī)制。換句話說,AI法律人格可能是一種“法律黑洞”,一個(gè)吸走人類行為者法律責(zé)任,從中卻看不到任何問責(zé)跡象的實(shí)體。總之,人工智能作為人本身的一種活動(dòng),即使再復(fù)雜、再智能、再先進(jìn),也只是服務(wù)于人類、實(shí)現(xiàn)人類目的的工具,充分彰顯著作為法律客體、促進(jìn)人類福祉的需求。在根本上,我們需要發(fā)展工具型AI(tool AI),而非所謂的全面接近人類的主體性AI。
誤區(qū)2:將公法上AI風(fēng)險(xiǎn)類型化理念和AI侵權(quán)責(zé)任規(guī)則勾連。
全球人工智能監(jiān)管的一個(gè)主要思路是采取“基于風(fēng)險(xiǎn)規(guī)制”,對具有不同風(fēng)險(xiǎn)程度的AI系統(tǒng)采取差異化監(jiān)管。歐盟人工智能法案是這種思路的典型代表,其按照風(fēng)險(xiǎn)高低,將AI系統(tǒng)分為不可接受風(fēng)險(xiǎn)AI、高風(fēng)險(xiǎn)AI、有限風(fēng)險(xiǎn)AI以及最小風(fēng)險(xiǎn)AI等四大類,并重點(diǎn)規(guī)定了高風(fēng)險(xiǎn)AI的要求和相關(guān)經(jīng)營者(提供者、部署者等)的義務(wù)等。其中,高風(fēng)險(xiǎn)AI的判斷標(biāo)準(zhǔn)是,AI系統(tǒng)對自然人的健康、安全、基本權(quán)利等構(gòu)成顯著的損害風(fēng)險(xiǎn)。在這種規(guī)制思路下,人們傾向于將AI系統(tǒng)的風(fēng)險(xiǎn)程度和歸責(zé)原則相掛鉤,比如將高風(fēng)險(xiǎn)AI和無過錯(cuò)責(zé)任相掛鉤,而將低風(fēng)險(xiǎn)AI或非高風(fēng)險(xiǎn)AI和過錯(cuò)責(zé)任或過錯(cuò)推定責(zé)任相掛鉤。歐盟立法者此前提出的“人工智能操作責(zé)任條例草稿”就是這種歸責(zé)思路的典型代表。然而,將公法規(guī)制框架下基于風(fēng)險(xiǎn)的AI類型化一刀切地銜接、匹配到不同的責(zé)任規(guī)則并不合理,實(shí)際上是一種錯(cuò)置。主要原因在于,高風(fēng)險(xiǎn)AI和傳統(tǒng)無過錯(cuò)責(zé)任理論所針對的具有異常危險(xiǎn)的物體或活動(dòng)之間并不能簡單畫上等號;相反,人工智能的引入可能改變?nèi)藗儗ξkU(xiǎn)領(lǐng)域的認(rèn)知,所謂的高風(fēng)險(xiǎn)AI實(shí)際上可能比人類控制、操作的類似物體或活動(dòng)更加安全。換句話說,所謂的高風(fēng)險(xiǎn)AI其實(shí)旨在減少風(fēng)險(xiǎn),增加安全性,實(shí)際上比其所取代的人類活動(dòng)要更加安全。
誤區(qū)3:對AI系統(tǒng)的“行為”進(jìn)行過失評價(jià)。
當(dāng)AI系統(tǒng)引發(fā)事故、造成損害時(shí),如何對AI系統(tǒng)的“行為”或表現(xiàn)進(jìn)行評價(jià),是一個(gè)關(guān)鍵的問題。有人提出將過失責(zé)任原則適用于AI系統(tǒng)自身,具體來說,類比用于判斷人類行為人是否具有過失的“理性人”標(biāo)準(zhǔn),可以采用“理性機(jī)器人”標(biāo)準(zhǔn)來判斷AI系統(tǒng)是否存在所謂的“過失”,以此限制相關(guān)主體對AI系統(tǒng)的責(zé)任。例如,此前在美國,在Nilsson v. Gen. Motors LLC案中,原告起訴美國自動(dòng)駕駛汽車公司Cruise,但沒有提出產(chǎn)品責(zé)任索賠,而是選擇了基于過失的理論:這位摩托車主聲稱Cruise的自動(dòng)駕駛汽車以如此疏忽的方式行駛,進(jìn)入了相鄰的車道并將他撞倒,而沒有考慮到過往的車輛。這可能是歷史上第一次一個(gè)機(jī)器人被正式指控自身存在過失操作——這一侵權(quán)指控曾經(jīng)是專門針對人類行為人的。然而,這種歸責(zé)思路在任何時(shí)候都應(yīng)當(dāng)被拒絕,即使現(xiàn)代侵權(quán)法對過失的認(rèn)定已經(jīng)趨于客觀化,但過失的概念始終指向人類行為人的行為,和人的主體性相掛鉤,將過失標(biāo)準(zhǔn)適用于AI系統(tǒng)的“行為”或表現(xiàn)是不切實(shí)際的。可以預(yù)見,隨著AI系統(tǒng)的自主性的增強(qiáng),未來在很多人工智能事故中,法院需要從評價(jià)使用者(如駕駛員)的行為更多轉(zhuǎn)變?yōu)樵u價(jià)AI系統(tǒng)(如自動(dòng)駕駛系統(tǒng))的行為,而對于AI系統(tǒng)的“行為”或表現(xiàn),應(yīng)從產(chǎn)品缺陷的角度而不是從過錯(cuò)的角度來進(jìn)行評價(jià)。這要求我們及時(shí)更新面向工業(yè)時(shí)代的傳統(tǒng)產(chǎn)品的產(chǎn)品責(zé)任制度。
誤區(qū)4:基于功能等效原則對部署、操作AI系統(tǒng)的主體進(jìn)行替代問責(zé)。
功能等效原則(Functional Equivalence)認(rèn)為,如果AI系統(tǒng)等自主技術(shù)的使用在功能上相當(dāng)于雇傭人類輔助人員,并由此造成了損害,那么運(yùn)營者(operators)部署、使用該技術(shù)的責(zé)任應(yīng)當(dāng)與委托人(Principal)對其人類輔助人員(Human Auxiliary)的既有替代責(zé)任機(jī)制相對應(yīng),也即AI系統(tǒng)的運(yùn)營者對AI系統(tǒng)造成的損害承擔(dān)替代責(zé)任。然而,這種思路是自找麻煩的,基于功能等效的責(zé)任類推乍看起來似乎很合理,但實(shí)際上卻不具有可行性。而且功能等效理論只是在表面上關(guān)注了技術(shù)的替代效應(yīng),卻沒有洞察這種技術(shù)現(xiàn)象背后的真實(shí)風(fēng)險(xiǎn)制造與控制。例如,在人工智能之前的時(shí)代,工廠利用自動(dòng)化裝置取代工人,如果自動(dòng)化裝置出現(xiàn)故障并造成損害,受害人會(huì)考慮追究自動(dòng)化裝置的生產(chǎn)者的產(chǎn)品責(zé)任,而不是讓工廠對自動(dòng)化裝置承擔(dān)替代責(zé)任。雖然AI系統(tǒng)的風(fēng)險(xiǎn)狀況可能不盡相同,但其只不過是比傳統(tǒng)的自動(dòng)化裝置更高級、更智能的工具而已,這意味著,人們需要撥開功能等效的迷霧,考察哪些主體(一般即工具的提供者和使用者)制造或控制哪些風(fēng)險(xiǎn)。因?yàn)樽罱K人們只是希望有人能夠?qū)I系統(tǒng)造成的損害承擔(dān)責(zé)任,而不是希望像追究人類行為人的責(zé)任那樣追究AI系統(tǒng)的責(zé)任。
AI時(shí)代的侵權(quán)責(zé)任制度,路在何方?
雖然人工智能給現(xiàn)行侵權(quán)責(zé)任制度的有效適用提出了挑戰(zhàn),但這并不意味著我們需要另起爐灶,采取全新的責(zé)任方案。相反,在現(xiàn)階段,通過對過錯(cuò)責(zé)任、產(chǎn)品責(zé)任等既有侵權(quán)責(zé)任規(guī)則作出必要的調(diào)整,我們就能夠讓侵權(quán)責(zé)任制度適應(yīng)AI時(shí)代的發(fā)展需求,并在安全與創(chuàng)新之間實(shí)現(xiàn)平衡。
其一,堅(jiān)持人工智能的法律客體地位,在AI事故和AI侵權(quán)中貫徹人的責(zé)任。從技術(shù)現(xiàn)實(shí)出發(fā),現(xiàn)在的AI系統(tǒng),無論多么先進(jìn)和智能,總是需要有人開發(fā)它,并將它投入使用。具體來說,雖然AI價(jià)值鏈紛繁復(fù)雜,但我們可以相對清晰地區(qū)分出提供者陣營(provider camp)和使用者陣營(user camp)這兩個(gè)群體。這種區(qū)分在法律上是有意義的,因?yàn)樵诿總€(gè)群體內(nèi)部(比如生產(chǎn)者和供應(yīng)商之間、所有人和使用者之間),責(zé)任都可以相對容易地通過合同工具分配給其中一個(gè)成員或者在幾個(gè)成員之間分擔(dān)。例如,歐盟人工智能法案區(qū)分了AI提供者和AI使用者(deployer of AI system),并重點(diǎn)針對這兩類主體施加了相關(guān)的義務(wù)和責(zé)任。因此,為了侵權(quán)責(zé)任目的,建立AI提供者和AI使用者的識別、確定標(biāo)準(zhǔn),是必要且重要的。
其二,為AI時(shí)代革新產(chǎn)品責(zé)任制度。雖然在人工智能應(yīng)用的很多具體使用場景中,使用者仍需履行一定的注意義務(wù)(諸如按照預(yù)期用途使用、確保數(shù)據(jù)質(zhì)量、監(jiān)測、維護(hù)等),對人工智能使用中其能夠控制的那些方面承擔(dān)責(zé)任,但長期來看,使用者的注意義務(wù)將會(huì)縮小,這意味著使用者的責(zé)任也可能會(huì)相應(yīng)縮小。在AI所有人、使用者的角色和控制力持續(xù)削弱的趨勢下,未來人工智能提供者的責(zé)任將可能進(jìn)入侵權(quán)責(zé)任法的中心舞臺。而AI系統(tǒng)作為一種新型的“智能”產(chǎn)品,呼吁對既有的產(chǎn)品責(zé)任制度作出必要的革新,包括產(chǎn)品概念、生產(chǎn)者界定、缺陷、可賠償損害、因果關(guān)系、舉證責(zé)任等方面。例如,在人工智能監(jiān)管方面,歐盟立法者在制定全球首部全面性的人工智能法案的同時(shí),對1985年出臺的歐盟產(chǎn)品責(zé)任指令進(jìn)行了全面的修訂,旨在為數(shù)字時(shí)代和AI時(shí)代建立全新的產(chǎn)品責(zé)任制度。與此同時(shí),歐盟立法者仍在醞釀“AI責(zé)任指令”(AI Liability Directive),旨在針對AI使用者的責(zé)任建立更明確、更可操作的規(guī)則。
其三,保險(xiǎn)應(yīng)作為AI責(zé)任框架的有益補(bǔ)充機(jī)制,而非替代性機(jī)制。保險(xiǎn)作為風(fēng)險(xiǎn)管理工具,在促進(jìn)新技術(shù)安全融入社會(huì)方面發(fā)揮著不容忽視的重要作用,比如通過提供財(cái)務(wù)保障激勵(lì)創(chuàng)新并確保新技術(shù)的安全實(shí)施。通過適當(dāng)?shù)恼{(diào)整和監(jiān)管干預(yù),保險(xiǎn)能夠繼續(xù)支持技術(shù)創(chuàng)新,并為社會(huì)提供必要的保障?,F(xiàn)有的保險(xiǎn)制度可以被用來監(jiān)管AI系統(tǒng),但無需制定專門的或全面性的人工智能保險(xiǎn)政策。同時(shí)應(yīng)當(dāng)謹(jǐn)慎針對人工智能應(yīng)用出臺強(qiáng)制性的保險(xiǎn)政策,以免適得其反地阻礙能夠帶來顯著經(jīng)濟(jì)和社會(huì)效益的AI技術(shù)的推廣普及。
其四,AI侵權(quán)責(zé)任制度之外,需要重視并積極應(yīng)對前沿AI的安全風(fēng)險(xiǎn)。在人工智能治理方面,AI侵權(quán)責(zé)任規(guī)則是必要的,但其作用是有限度的,雖然能夠有效應(yīng)對AI系統(tǒng)可能給人們的人身、財(cái)產(chǎn)權(quán)益造成的損害風(fēng)險(xiǎn),但對于超級智能等前沿AI(frontier AI)可能帶來的極端風(fēng)險(xiǎn)或?yàn)?zāi)難性風(fēng)險(xiǎn),AI侵權(quán)責(zé)任規(guī)則難以起到實(shí)質(zhì)性作用。在AI加速發(fā)展趨勢下,超級智能(superintelligence)已經(jīng)呼之欲出,其潛在安全風(fēng)險(xiǎn)日益得到各國政府、研究界、業(yè)界的積極關(guān)注和重視。國外AI專家指出,長期來看,大多數(shù)人都低估了超級智能的安全風(fēng)險(xiǎn)可能有多嚴(yán)重。因此,積極倡導(dǎo)、發(fā)展、構(gòu)建福祉型人工智能(wellbeing AI),利用人工智能最大化個(gè)人的、社會(huì)的以及環(huán)境的福祉,將包括AI價(jià)值對齊在內(nèi)的人機(jī)對齊理念融入超級智能的發(fā)展,就顯得尤為重要。
?
(?作者為騰訊研究院高級研究員。文章僅代表作者個(gè)人觀點(diǎn)。原文首發(fā)于微信公號“騰訊研究院”。界面新聞獲授權(quán)轉(zhuǎn)載。)
還沒有評論,來說兩句吧...