91无码视频一区|蜜臀福利在线观看|日韩一极黄色视频|色欲人妻少妇Av一区二区|婷婷香蕉视频欧美三级片黄色|一级A片刺激高潮|国产精品污污久久|日韩黄色精品日韩久久综合网|中国一级片电影在线|超碰乱码久久久免费

擬議的歐盟人工智能責(zé)任規(guī)則:輕松還是負(fù)擔(dān)?

商界觀察
2022-11-10

針對(duì)人工智能技術(shù)的商業(yè)開(kāi)發(fā)和應(yīng)用監(jiān)管,科技公司和政府監(jiān)管者正在全球激烈博弈。歐盟的監(jiān)管者就要求科技公司確保其人工智能產(chǎn)品在開(kāi)發(fā)時(shí)就采用一些減輕潛在危害的方法。

監(jiān)管者的責(zé)任義務(wù)能否通過(guò)設(shè)定規(guī)則順利實(shí)現(xiàn)?奧斯陸和平研究所(PRIO)研究員Samar Abbas Nawaz用一篇文章分析了其間存在的現(xiàn)實(shí)挑戰(zhàn)。《互聯(lián)網(wǎng)法律評(píng)論》今日摘譯該文核心觀點(diǎn),供讀者參考。

 

“誰(shuí)該為人工智能(AI)系統(tǒng)造成的傷害負(fù)責(zé)?”是人們?cè)谑褂萌斯ぶ悄芟到y(tǒng)時(shí)的普遍擔(dān)憂(yōu)。歐盟委員會(huì)自從2021年提出要對(duì)人工智能系統(tǒng)進(jìn)行監(jiān)管后,目前正在設(shè)法解決這個(gè)關(guān)鍵的責(zé)任問(wèn)題。

 

監(jiān)管人工智能技術(shù)的安全使用并不是一件容易的事,但是確保人工智能系統(tǒng)的安全使用對(duì)立法者來(lái)說(shuō)是至關(guān)重要責(zé)任。根據(jù)擬議的兩項(xiàng)指令(directives),歐盟委員會(huì)旨在通過(guò)強(qiáng)加責(zé)任的規(guī)則來(lái)保護(hù)人工智能的受害者。因此,我們有必要分析這些規(guī)則在多大程度上解決了責(zé)任問(wèn)題,并使受害方更容易就所造成的損害獲得損害賠償。

 

1.歐盟人工智能責(zé)任規(guī)則的背景

 

2020 年,歐盟委員會(huì)發(fā)布了一份關(guān)于人工智能的白皮書(shū),承諾解決與使用人工智能系統(tǒng)相關(guān)的各種風(fēng)險(xiǎn)。隨后在 2021 年提出了一項(xiàng)提案——《人工智能法案》(AIA,目前尚未通過(guò))。

 

擬議的法案通過(guò)區(qū)分被禁止的高風(fēng)險(xiǎn)的人工智能系統(tǒng),提出“對(duì)個(gè)人的有害風(fēng)險(xiǎn)降至最低”的重要要求。“被禁止”的人工智能系統(tǒng)包括實(shí)時(shí)生物特征識(shí)別、社會(huì)評(píng)分或操縱性人工智能系統(tǒng)(第 5 條)。更嚴(yán)格的要求適用于高風(fēng)險(xiǎn)人工智能系統(tǒng)。“高風(fēng)險(xiǎn)”人工智能系統(tǒng)受歐盟統(tǒng)一法規(guī)(第6條)的合格評(píng)估要求的約束,有更嚴(yán)格的要求——這些系統(tǒng)只有在符合規(guī)定的風(fēng)險(xiǎn)管理系統(tǒng)、透明度、人工監(jiān)督、適當(dāng)?shù)臄?shù)據(jù)質(zhì)量和有效的網(wǎng)絡(luò)安全要求的情況下才能使用。

 

但是,一旦這些風(fēng)險(xiǎn)成為現(xiàn)實(shí)并且有人受到傷害,后果如何?如何追究相關(guān)責(zé)任?為了解決這些問(wèn)題,歐盟委員會(huì)最近提出了兩項(xiàng)指令:即《人工智能責(zé)任指令》(AILD)和修訂后的《產(chǎn)品責(zé)任指令》(PLD)。當(dāng)人工智能系統(tǒng)造成傷害時(shí),AILD為證明某人的錯(cuò)誤鋪平了道路。用法律術(shù)語(yǔ)來(lái)說(shuō),它可以被視為一種“基于過(guò)錯(cuò)的責(zé)任”機(jī)制。修訂后的 PLD 在損害是由 人工智能系統(tǒng)的缺陷而不是由于某人的過(guò)錯(cuò)造成的情況下很有用。因此,它建立了“無(wú)過(guò)錯(cuò)責(zé)任”規(guī)則。這一努力背后的想法是增強(qiáng)公眾對(duì)人工智能技術(shù)的信任,并為參與開(kāi)發(fā)這些系統(tǒng)的企業(yè)提供法律上的明確性。

 

2.《人工智能責(zé)任指令》 (AILD)

 

AILD 的內(nèi)容主要包含了人工智能系統(tǒng)之于受害者的兩個(gè)假設(shè),以及信息披露。

 

在擬議的指令中可以找到兩個(gè)假設(shè):一種適用于不遵守注意義務(wù),另一種適用于過(guò)錯(cuò)與輸出之間的聯(lián)系,稱(chēng)為“因果關(guān)系推定”。

 

簡(jiǎn)單來(lái)說(shuō),“因果關(guān)系推定”假設(shè)人工智能系統(tǒng)造成的損害是由于提供者或用戶(hù)的過(guò)錯(cuò)造成。如果提供者或用戶(hù)(無(wú)論案件中的被告是誰(shuí))——即使在國(guó)家法院下令披露后——仍未提供有關(guān)相關(guān)系統(tǒng)的信息,則該推定生效。“供應(yīng)商”在 AILD 框架的背景下,被定義為制造商或任何以自己的商品名稱(chēng)將給定的人工智能系統(tǒng)投放市場(chǎng)的機(jī)構(gòu)?!坝脩?hù)”可以是在其授權(quán)下使用人工智能系統(tǒng)的任何人。

 

然而,被告可以通過(guò)舉證來(lái)推翻這一因果推定——人工智能系統(tǒng)可訪問(wèn)信息足以證明是系統(tǒng)的錯(cuò)誤(如果有的話(huà))。如果供應(yīng)商違反了相關(guān)法律規(guī)定的注意義務(wù),以及AIA有關(guān)數(shù)據(jù)質(zhì)量、透明度、人力監(jiān)督、網(wǎng)絡(luò)安全的任何要求,或在發(fā)現(xiàn)故障時(shí)未退出給定系統(tǒng),則供應(yīng)商將承擔(dān)責(zé)任;另一方面,如果用戶(hù)違反使用說(shuō)明或?qū)⑾到y(tǒng)暴露于不相關(guān)的輸入數(shù)據(jù),則用戶(hù)將承擔(dān)責(zé)任。

 

關(guān)于如何提供有害的人工智能系統(tǒng)信息,AILD 允許受害者通過(guò)國(guó)家法院尋求信息披露(第 3 條)。為確保人工智能系統(tǒng)的透明度,擬議中的AIA第13條也有關(guān)于信息披露的類(lèi)似規(guī)定。這些要求之間的主要區(qū)別在于:AIA 要求是針對(duì)系統(tǒng)用戶(hù)的,而 AILD 要求向任何受 人工智能系統(tǒng)傷害的受害者披露信息。因此,AILD 旨在使索賠人更容易根據(jù)所披露的信息證明過(guò)失,從而為所遭受的任何損害尋求賠償。例如,如果民用環(huán)境中的人工智能無(wú)人機(jī)發(fā)生故障并傷害旁觀者,那么旁觀者可以根據(jù)自然人的過(guò)錯(cuò)要求賠償。AILD將允許索賠人從其供應(yīng)商或用戶(hù)那里尋求有關(guān)無(wú)人機(jī)的信息,以確定故障。

 

3.修訂后的《產(chǎn)品責(zé)任指令》 (PLD)

 

《產(chǎn)品責(zé)任指令》(PLD)于 1985 年通過(guò),在應(yīng)用于人工智能系統(tǒng)時(shí)存在一些缺陷,因此早就應(yīng)該對(duì) PLD 進(jìn)行修訂。此次修訂版的一個(gè)重要方面是將軟件納入其應(yīng)用范圍。這被視為背離了傳統(tǒng)立場(chǎng),即只有產(chǎn)品的制造商或進(jìn)口商可以承擔(dān)責(zé)任,而不是軟件開(kāi)發(fā)人員。與 AILD 相比,修訂后的 PLD 允許基于產(chǎn)品缺陷而不是基于過(guò)錯(cuò)來(lái)追究提供商的責(zé)任。因此,如果人工智能驅(qū)動(dòng)的無(wú)人機(jī)因某些缺陷對(duì)任何人造成傷害,則索賠人可以根據(jù)修訂后的 PLD 尋求補(bǔ)救。

 

PLD第 9 條承認(rèn)兩種推定:缺陷推定,缺陷與損害之間存在因果關(guān)系的推定。在以下三種情況下會(huì)觸發(fā)“缺陷推定”:

 

供應(yīng)商未披露系統(tǒng)信息;

 

索賠人證明了系統(tǒng)的明顯故障;

 

索賠人表明供應(yīng)商違反了安全規(guī)則

 

如果損壞與缺陷“典型一致”,因果關(guān)系的假設(shè)就會(huì)啟動(dòng)。如果系統(tǒng)的技術(shù)復(fù)雜性導(dǎo)致難以識(shí)別缺陷,則可以同時(shí)做出兩種假設(shè)。然而,為了能夠依賴(lài)這些推定,索賠人仍然必須證明存在缺陷的可能性以及產(chǎn)品造成損害的可能性。但是,供應(yīng)商可以通過(guò)證明不存在這種過(guò)度的技術(shù)困難來(lái)反駁上述假設(shè)。

 

 

4.兩部指令面臨的現(xiàn)實(shí)挑戰(zhàn):受害人沉重的舉證責(zé)任

 

對(duì)以上兩個(gè)指令——特別是AILD——的批評(píng)之一是,盡管提供了相關(guān)信息,但仍然很難證明復(fù)雜的人工智能系統(tǒng)故障。特別是,一些人工智能系統(tǒng)的行為是自主的,它們的功能很復(fù)雜,任何輸出的原因都不容易理解。這一挑戰(zhàn)涉及“黑箱”算法問(wèn)題,當(dāng)人工智能系統(tǒng)導(dǎo)致難以理解的特定結(jié)果的信息輸入時(shí),就會(huì)出現(xiàn)這種問(wèn)題。在這種情況下,即便能夠提供足夠的系統(tǒng)信息,這對(duì)受害者是否真的有好處?

 

盡管提議的 AILD 在引言中提到了自治對(duì)于理解系統(tǒng)是一個(gè)問(wèn)題,但該指令幾乎沒(méi)有使受害者更容易建立因果關(guān)系的假設(shè)。根據(jù) AILD,受害方仍將面臨沉重的舉證責(zé)任從提供證據(jù)支持索賠的合理性,到確定不符合 AIA 要求,并證明人工智能系統(tǒng)的行為與所遭受的損害之間存在聯(lián)系。

 

證明不符合AIA 中規(guī)定的要求也可能非常困難。例如,要證明用于開(kāi)發(fā)人工智能系統(tǒng)的數(shù)據(jù)集或給定系統(tǒng)的準(zhǔn)確度水平確實(shí)不足,可能并不容易。因此,提議的 AILD 充其量是為受害者提供非常有限的程序便利。需要做更多的工作來(lái)有效地促進(jìn)人工智能造成損害進(jìn)而可獲得的補(bǔ)救機(jī)制。

 

處理此問(wèn)題的一種方法是,修訂后的 PLD 使用基于缺陷的補(bǔ)救措施,無(wú)需證明過(guò)錯(cuò)。但是,根據(jù) PLD,只有在發(fā)生實(shí)質(zhì)性損害的情況下才能尋求賠償。這意味著,任何金融機(jī)構(gòu)的信用評(píng)分系統(tǒng)都不能因?yàn)榇嬖谌毕荻艿教魬?zhàn),因?yàn)檫@些系統(tǒng)可能不會(huì)以實(shí)質(zhì)性的方式傷害個(gè)人。在這種情況下,受害的人必須通過(guò) AILD 證明過(guò)錯(cuò)才能獲得賠償。歐洲消費(fèi)者組織 (BEUC) 副主任 Ursula Pachl在談?wù)摂M議指令時(shí)已經(jīng)表達(dá)了這種擔(dān)憂(yōu)——?dú)W盟委員會(huì)的做法對(duì)開(kāi)發(fā)商更有利,其中一些人反對(duì)在準(zhǔn)備這些提案期間對(duì)非實(shí)質(zhì)損害承擔(dān)嚴(yán)格責(zé)任。

 

除此障礙外,PLD 還要求索賠人證明由于系統(tǒng)缺陷而造成損害的可能性,以利用缺陷推定。這就提出了一個(gè)問(wèn)題,關(guān)于索賠人必須滿(mǎn)足的可能性的參數(shù),特別是當(dāng)給定系統(tǒng)太復(fù)雜而無(wú)法理解時(shí)。

 

5.結(jié)論

 

歐盟委員會(huì)提議的AILD,主要是為以人工智能系統(tǒng)的信息來(lái)確定責(zé)任提供了便利。在某種程度上,這對(duì) 人工智能系統(tǒng)的透明性要求提出了硬性要求,該要求也包含在提議的 AIA 中。然而,在這樣做的同時(shí),擬議的責(zé)任指令也給索賠人帶來(lái)了一些需要克服的棘手障礙——是否必須確定缺陷和因果關(guān)系的過(guò)錯(cuò)或假設(shè),以及損害與缺陷或過(guò)錯(cuò)之間的聯(lián)系。

 

歐盟委員會(huì)的提案處于最初的立法階段,可能會(huì)在最終通過(guò)之前進(jìn)行各種修改。而且,擬議 AIA 的潛在修改也可能仍會(huì)改變擬議責(zé)任指令的實(shí)施,因?yàn)檫@些指令依賴(lài)于 AIA 中規(guī)定的定義和要求。

 

確立人工智能責(zé)任的立法努力是朝著有效監(jiān)管人工智能的正確方向邁出的重要一步。然而,仍然有必要對(duì)人工智能系統(tǒng)所涉及的復(fù)雜性保持謹(jǐn)慎,特別是當(dāng)目標(biāo)是保護(hù)受害者時(shí)。

本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com