【作者】丁曉東
【內(nèi)容提要】
全球比較下的我國(guó)人工智能立法
丁曉東 中國(guó)人民大學(xué)法學(xué)院教授,法學(xué)博士
摘要:我國(guó)人工智能立法需要引入全球比較視野。目前美國(guó)的人工智能立法強(qiáng)調(diào)市場(chǎng)主導(dǎo)與企業(yè)自我規(guī)制,僅在出口管制、涉國(guó)家安全信息共享、民權(quán)保護(hù)、消費(fèi)者保護(hù)等領(lǐng)域進(jìn)行規(guī)制。歐盟則急于發(fā)揮布魯塞爾效應(yīng),對(duì)人工智能進(jìn)行統(tǒng)一立法與風(fēng)險(xiǎn)規(guī)制,準(zhǔn)備將人工智能系統(tǒng)納入產(chǎn)品責(zé)任范疇、確立特殊舉證責(zé)任。我國(guó)人工智能立法應(yīng)堅(jiān)持場(chǎng)景化規(guī)制進(jìn)路,不急于統(tǒng)一立法,待時(shí)機(jī)成熟時(shí)再制定綜合性人工智能法。我國(guó)人工智能法可從一般原則、公法、私法三個(gè)層面展開。其總則應(yīng)體現(xiàn)發(fā)展、平等、開放、安全的價(jià)值理念;其公法規(guī)制應(yīng)針對(duì)重大公共風(fēng)險(xiǎn),對(duì)其他風(fēng)險(xiǎn)適用場(chǎng)景化規(guī)制、尊重行業(yè)自治、防止部門越權(quán)立法;其私法制度應(yīng)對(duì)終端產(chǎn)品而非人工智能系統(tǒng)本身施加產(chǎn)品責(zé)任,其可以制定人工智能特殊侵權(quán)規(guī)則,但應(yīng)先通過司法積累相關(guān)經(jīng)驗(yàn)。
關(guān)鍵詞:人工智能立法;風(fēng)險(xiǎn)規(guī)制;場(chǎng)景化規(guī)制;人工智能侵權(quán);產(chǎn)品責(zé)任
人工智能立法面臨若干經(jīng)典難題。其一,人工智能立法需要兼顧發(fā)展與安全、活力與秩序的平衡。面對(duì)人工智能帶來的各類風(fēng)險(xiǎn),法律要避免人工智能在“法外之地”發(fā)展;又要促進(jìn)人工智能技術(shù)發(fā)展、造福人民,避免不發(fā)展這一“最大的不安全”。其二,人工智能的日新月異與法律的相對(duì)穩(wěn)定性存在緊張。在學(xué)理上,這種緊張關(guān)系被歸納為科林格里奇困境(Collingridge dilemma)或所謂的“步調(diào)”(pacing)問題,即法律與科技發(fā)展的節(jié)奏與步調(diào)相差很大。其三,人工智能議題的場(chǎng)景性與法律的一般性存在緊張。人工智能法律問題既涉及公法也涉及私法,而且在不同場(chǎng)景下又有不同問題,例如人工智能應(yīng)用于各類產(chǎn)品和服務(wù)所帶來的風(fēng)險(xiǎn)規(guī)制、個(gè)人信息保護(hù)、言論侵權(quán)、消費(fèi)者保護(hù)、人工智能訓(xùn)練數(shù)據(jù)的合法性、人工智能作品的著作權(quán)歸屬等問題。但傳統(tǒng)立法主要以部門法或行業(yè)法為基礎(chǔ),強(qiáng)調(diào)法律體系統(tǒng)一性與融貫性。其四,人工智能還存在全球競(jìng)爭(zhēng)與協(xié)調(diào)的問題。人工智能作為新質(zhì)生產(chǎn)力的代表,其立法如何在人工智能技術(shù)與規(guī)則制定方面同時(shí)引領(lǐng)世界,已經(jīng)成為各國(guó)的戰(zhàn)略議題。對(duì)于我國(guó)而言,如何進(jìn)行人工智能立法、是否應(yīng)當(dāng)制定統(tǒng)一性的人工智能法,也已經(jīng)成為各方討論的焦點(diǎn)。
本文從比較的視野對(duì)上述問題進(jìn)行分析,重點(diǎn)選取美國(guó)、歐盟與我國(guó)的人工智能立法進(jìn)行比較分析。之所以選取比較的視野,除了前述第四點(diǎn)提到的人工智能全球競(jìng)爭(zhēng)與協(xié)調(diào)必然涉及不同國(guó)家與地區(qū),另一個(gè)原因是全球的人工智能都面臨類似的前面三個(gè)問題。例如各國(guó)的人工智能立法與政策制定都無一例外提到發(fā)展與安全的平衡,各國(guó)對(duì)于人工智能立法的時(shí)機(jī)與節(jié)奏也一直存在爭(zhēng)論,并且對(duì)人工智能立法的統(tǒng)一性與場(chǎng)景化提出了不同方案。而之所以采取美國(guó)、歐盟、我國(guó)三個(gè)國(guó)家與地區(qū)進(jìn)行分析,是因?yàn)橹忻罋W已經(jīng)成為人工智能與人工智能規(guī)則制定領(lǐng)域最為重要的國(guó)家和地區(qū)。用布萊德福德(Anu Bradford)教授的話來說,就是這三個(gè)國(guó)家和地區(qū)是全球公認(rèn)的“主導(dǎo)性數(shù)字力量”。
具體而言,本文第一、二部分分別對(duì)美國(guó)與歐盟的人工智能立法進(jìn)行分析,指出美國(guó)與歐盟采取了表面相似但實(shí)際迥異的立法進(jìn)路。第三部分從美歐以及域外其他國(guó)家的比較視野出發(fā),從立法的價(jià)值立場(chǎng)、公法與私法三個(gè)維度總結(jié)人工智能立法的一般原理,指出美國(guó)人工智能立法存在霸權(quán)主義與排外主義弊端,但其發(fā)展導(dǎo)向、實(shí)用主義與場(chǎng)景化的規(guī)制進(jìn)路與我國(guó)契合;而歐盟人工智能立法存在價(jià)值優(yōu)越主義、過度規(guī)制的陷阱,但其對(duì)弱勢(shì)群體保護(hù)的立場(chǎng)也具有合理性。第四部分對(duì)我國(guó)人工智能的立法現(xiàn)狀進(jìn)行總結(jié),并對(duì)我國(guó)未來的人工智能立法特別是總體性的人工智能法進(jìn)行分析。面對(duì)美歐協(xié)調(diào),我國(guó)人工智能立法應(yīng)當(dāng)以發(fā)展、平等、開放、安全的價(jià)值理念為指引,對(duì)重大公共風(fēng)險(xiǎn)進(jìn)行小切口規(guī)制,對(duì)其他風(fēng)險(xiǎn)適用企業(yè)自我規(guī)制與私法事后規(guī)制。第五部分對(duì)全文進(jìn)行總結(jié),指出我國(guó)人工智能立法應(yīng)當(dāng)保持戰(zhàn)略耐心,既為人工智能發(fā)展預(yù)留探索空間,又為未來人工智能立法積累足夠深入的學(xué)術(shù)研究與經(jīng)驗(yàn)積累。
一、美國(guó)的人工智能立法
在人工智能產(chǎn)業(yè)與技術(shù)發(fā)展方面,美國(guó)處于全球領(lǐng)先的地位,其中美國(guó)的法律制度扮演了關(guān)鍵性角色。正如有學(xué)者所言,美國(guó)之所以在互聯(lián)網(wǎng)、信息科技等領(lǐng)域領(lǐng)先全球,很大原因是“法律造就了硅谷”。此外,美國(guó)的立法體制較為復(fù)雜,國(guó)內(nèi)學(xué)界常常對(duì)美國(guó)的一些立法產(chǎn)生誤讀。因此,有必要首先闡述美國(guó)的人工智能立法。
(一)聯(lián)邦層面
在不少中文論文與網(wǎng)絡(luò)文章中,經(jīng)??梢钥吹矫绹?guó)制定或通過“某某人工智能法案”的論斷,例如提到美國(guó)在2021年制定了《算法正義與在線平臺(tái)透明度法案》(Algorithmic Justice and Online PlatformTransparency Act)、《過濾氣泡透明度法案》(FilterBubble Transparency Act)、2022年的《算法問責(zé)法案》(Algorithmic Accountability Act)。但實(shí)際上,上述提案均未通過美國(guó)國(guó)會(huì)的投票,并沒有成為法律,至今為止,美國(guó)沒有在聯(lián)邦層面通過或接近通過任何人工智能的法案。在美國(guó)的立法體制中,平均只有不到百分之幾國(guó)會(huì)提案(bills)最終成為法律(law),將美國(guó)國(guó)會(huì)議員所提起的大量提案作為法律介紹到國(guó)內(nèi),將可能引發(fā)我國(guó)學(xué)界對(duì)美國(guó)人工智能立法的誤讀。
在可預(yù)見的將來,美國(guó)國(guó)會(huì)也不太可能進(jìn)行聯(lián)邦層面的綜合性人工智能立法。其原因有若干。首先,美國(guó)的法律與政治文化歷來對(duì)科技創(chuàng)新具有很高的包容性,對(duì)綜合性的科技規(guī)制立法歷來持審慎立場(chǎng)。人工智能作為美國(guó)“新質(zhì)生產(chǎn)力”與國(guó)家競(jìng)爭(zhēng)力的代表,美國(guó)不太可能在短期通過立法對(duì)其進(jìn)行規(guī)制。其次,人工智能所帶來的法律問題涉及各個(gè)方面。相比個(gè)人信息保護(hù)法或信息隱私法,人工智能法遠(yuǎn)未形成統(tǒng)一的法律傳統(tǒng)與成熟的制度框架。即使在制度已經(jīng)非常成熟、全球絕大部分都已經(jīng)進(jìn)行立法的個(gè)人信息保護(hù)法領(lǐng)域,美國(guó)國(guó)會(huì)也并未通過個(gè)人信息保護(hù)立法。在人工智能領(lǐng)域,美國(guó)更不可能在國(guó)會(huì)層面進(jìn)行倉促立法。
在聯(lián)邦層面,美國(guó)現(xiàn)有的人工智能“立法”限于美國(guó)總統(tǒng)發(fā)布的行政命令。而之所以給這些人工智能“立法”打上引號(hào),是因?yàn)榭偨y(tǒng)發(fā)布行政命令的權(quán)限要么來自于美國(guó)憲法第二條所賦予的行政權(quán),要么來自于美國(guó)國(guó)會(huì)的立法授權(quán),這些行政命令可能具有法律的強(qiáng)制力與效果,但本身并不是嚴(yán)格意義上的法。整體而言,美國(guó)的行政命令主要集中在國(guó)家安全、軍事、對(duì)外關(guān)系等領(lǐng)域。在過去若干年里,美國(guó)通過行政命令在人工智能領(lǐng)域制定了一系列涉及對(duì)外關(guān)系的行政命令,涉及人工智能出口管制、投資、數(shù)據(jù)跨境等內(nèi)容。在對(duì)內(nèi)立法方面,美國(guó)總統(tǒng)所頒布的行政命令主要對(duì)聯(lián)邦規(guī)制機(jī)構(gòu)應(yīng)用人工智能發(fā)布了規(guī)范性指引,其對(duì)企業(yè)所進(jìn)行的規(guī)范主要限于涉及國(guó)家安全的人工智能應(yīng)用中的信息共享責(zé)任。
以特朗普政府和拜登政府所頒布的行政命令為例,特朗普政府發(fā)布的第13859號(hào)行政命令《保持美國(guó)在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位》(MaintainingAmerican Leadership in Artificial Intelligence)和第13960號(hào)行政命令《促進(jìn)聯(lián)邦政府使用值得信賴的人工智能》(Promoting the Use of Trustworthy Artificial Intelligence in theFederal Government)主要針對(duì)美國(guó)規(guī)制機(jī)構(gòu)使用人工智能進(jìn)行了規(guī)定。拜登政府發(fā)布的第14110號(hào)行政命令《安全、可靠和值得信賴地開發(fā)和使用人工智能》(On the Safe, Secure, and Trustworthy Development and Use ofArtificial Intelligence)的行政命令也主要是要求美國(guó)聯(lián)邦規(guī)制機(jī)構(gòu)在刑事司法、教育、醫(yī)療保健、住房和勞工等領(lǐng)域制定標(biāo)準(zhǔn)與規(guī)范。針對(duì)市場(chǎng)化運(yùn)行的人工智能企業(yè),第14110號(hào)行政命令援引1950年制定的《國(guó)防生產(chǎn)法》(Defense Production Act),要求企業(yè)在涉及國(guó)家安全或公共健康安全構(gòu)成嚴(yán)重風(fēng)險(xiǎn)的人工智能模型訓(xùn)練與聯(lián)邦政府分享信息。《國(guó)防生產(chǎn)法》賦予總統(tǒng)命令公司生產(chǎn)商品和提供服務(wù)以支持國(guó)防的權(quán)力,拜登政府試圖引用這部法律對(duì)人工智能企業(yè)進(jìn)行有限規(guī)制。
美國(guó)聯(lián)邦機(jī)構(gòu)的其他人工智能政策、標(biāo)準(zhǔn)與聲明也不具有法律約束力,或者并未進(jìn)行新的立法。例如美國(guó)白宮科技辦公室(The White House Office of Science and Technology)發(fā)布的《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an AI Billof Rights)是一個(gè)不具有約束力的保護(hù)公民免受基于人工智能的歧視,并確保隱私和安全的框架。美國(guó)聯(lián)邦貿(mào)易委員會(huì)對(duì)于人工智能發(fā)布了一系列的聲明和意見,但這些聲明和意見主要是在人工智能與算法決策領(lǐng)域適用消費(fèi)者保護(hù)法,而非對(duì)人工智能進(jìn)行新立法或綜合性立法。對(duì)人工智能進(jìn)行較為全面性標(biāo)準(zhǔn)制定的是美國(guó)商務(wù)部下屬的美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)所制定的《人工智能風(fēng)險(xiǎn)管理框架》,該法案對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行了一般性規(guī)定,建構(gòu)了基于人工智能生命周期的風(fēng)險(xiǎn)管理框架。不過,這一框架是一個(gè)企業(yè)自愿實(shí)施、不具有法律或標(biāo)準(zhǔn)強(qiáng)制力的文件。美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所雖然仍然冠有“標(biāo)準(zhǔn)”的抬頭,但在軟件、人工智能等領(lǐng)域早已經(jīng)“非標(biāo)準(zhǔn)化”(un-standards),依賴企業(yè)的自我規(guī)制而非政府制定單一標(biāo)準(zhǔn)來規(guī)制相關(guān)風(fēng)險(xiǎn)。
(二)州層面立法
美國(guó)州層面的立法相對(duì)容易通過。目前,已經(jīng)有科羅拉多州、猶他州等州通過了人工智能或與人工智能相關(guān)的某些法律。綜合而言,這些美國(guó)州層面的立法對(duì)于人工智能的規(guī)制主要限定在消費(fèi)者保護(hù)、反歧視、民權(quán)保護(hù)等領(lǐng)域,其對(duì)人工智能企業(yè)所施加的義務(wù)仍然非常有限。而加州則由于聚集了大量的大型互聯(lián)網(wǎng)與人工智能企業(yè),其正在進(jìn)行的立法聚焦于重大公共安全風(fēng)險(xiǎn),其設(shè)定的監(jiān)管門檻將絕大部分企業(yè)都排除在監(jiān)管對(duì)象之外,采取了看似強(qiáng)制性規(guī)制但實(shí)際上以企業(yè)自我規(guī)制和合規(guī)免責(zé)為主的制度。
以《科羅拉多州人工智能法》(Colorado ArtificialIntelligence Act)為例,該法被認(rèn)為是美國(guó)第一個(gè)對(duì)高風(fēng)險(xiǎn)人工智能進(jìn)行規(guī)制的州。該法規(guī)定,如果人工智能影響消費(fèi)者的教育入學(xué)或教育機(jī)會(huì)、就業(yè)或就業(yè)機(jī)會(huì)、金融或借貸服務(wù)、必不可少的政府服務(wù)、醫(yī)療保健服務(wù)、住房、保險(xiǎn)、法律服務(wù),或者對(duì)產(chǎn)生具有法律性影響或類似重大影響,那么此類人工智能系統(tǒng)就將被視為高風(fēng)險(xiǎn)人工智能系統(tǒng)(high-risk AI system)。從法律規(guī)制的范圍來看,《科羅拉多州人工智能法》受到了下文將要討論的歐盟人工智能法的一定影響,都將高風(fēng)險(xiǎn)人工智能作為規(guī)制或重點(diǎn)規(guī)制對(duì)象。不過,與歐盟不同的是,《科羅拉多州人工智能法》明確將這一法律定位于“涉及與人工智能系統(tǒng)交互的消費(fèi)者保護(hù)”,而非對(duì)所有領(lǐng)域的人工智能進(jìn)行規(guī)制。
從對(duì)高風(fēng)險(xiǎn)人工智能的義務(wù)設(shè)定來看,《科羅拉多州人工智能法》要求其開發(fā)者(developer)和部署者(deployer)采取合理注意義務(wù)(reasonably care),避免消費(fèi)者遭受算法歧視。例如,開發(fā)者應(yīng)當(dāng)向部署者提供信息以進(jìn)行影響評(píng)估;發(fā)現(xiàn)算法歧視風(fēng)險(xiǎn)后在期限內(nèi)告知總檢察長(zhǎng)和部署者;在網(wǎng)站上發(fā)布高風(fēng)險(xiǎn)人工智能、可預(yù)見的算法歧視風(fēng)險(xiǎn)的公開聲明、人工智能系統(tǒng)的目的、預(yù)期效益和用途。部署者則應(yīng)當(dāng)實(shí)施風(fēng)險(xiǎn)管理政策和計(jì)劃、完成人工智能風(fēng)險(xiǎn)的影響評(píng)估、向消費(fèi)者告知使用了人工智能、發(fā)現(xiàn)算法歧視后在期限內(nèi)告知總檢察長(zhǎng);在網(wǎng)站上發(fā)布其正在部署的高風(fēng)險(xiǎn)人工智能系統(tǒng),以及可能出現(xiàn)的任何已知或合理可預(yù)見的算法歧視風(fēng)險(xiǎn)。當(dāng)高風(fēng)險(xiǎn)人工智能系統(tǒng)的開發(fā)者與部署者滿足上述條件,則可以預(yù)設(shè)其履行了避免算法歧視的合理注意義務(wù)。
其他已經(jīng)對(duì)人工智能進(jìn)行立法的州同樣采取了消費(fèi)者保護(hù)或民權(quán)保護(hù)的進(jìn)路,將消費(fèi)者知情權(quán)、反歧視等傳統(tǒng)法律要求延伸到人工智能領(lǐng)域。不過,相比科羅拉多州,目前其他州所施加的責(zé)任要更輕。例如《猶他州人工智能政策法案》(Utah Artificial Intelligence Policy Act)主要規(guī)定了使用生成式人工智能時(shí)的披露義務(wù)。針對(duì)律師、醫(yī)生等“受監(jiān)管職業(yè)”(regulated occupation),這些群體如果使用生成式人工智能與消費(fèi)者進(jìn)行互動(dòng),他們就必須以“顯著地”(prominently)方式向消費(fèi)者進(jìn)行披露;而不屬于“受監(jiān)管職業(yè)”但受猶他州消費(fèi)者保護(hù)法約束的主體則必須“清晰和醒目地”(clearly and conspicuously)披露其使用人工智能的情況。
加利福尼亞州的立法則聚焦于促進(jìn)人工智能發(fā)展和監(jiān)管人工智能帶來的重大公共風(fēng)險(xiǎn)。目前,加州的SB-1047法案,即《前沿人工智能模型安全創(chuàng)新法案》(Safe and Secure Innovation for Frontier Artificial IntelligenceModels Act)正在加州議會(huì)審議。該法案將運(yùn)算能力大于10的26次方的人工智能模型納入“被監(jiān)管模型”(covered entity),要求這類模型的開發(fā)者制定安全標(biāo)準(zhǔn),預(yù)防“利用化學(xué)、生物、放射性或核武器”造成大規(guī)模傷亡、造成5億美元以上損失的針對(duì)關(guān)鍵基礎(chǔ)設(shè)施的網(wǎng)絡(luò)攻擊、造成5億美元以上損失的違反刑法的行為,以及類似的公共安全傷害。不過,需要注意,該法案的監(jiān)管門檻其實(shí)很高,因?yàn)檫\(yùn)算能力大于10的26次方的人工智能模型實(shí)際上已經(jīng)將目前現(xiàn)有的人工智能模型基本排除在外。同時(shí),該法案還設(shè)置了對(duì)受監(jiān)管模型的“有限責(zé)任豁免”(limited duty exemption)。這些豁免條款規(guī)定,當(dāng)受監(jiān)管模型的開發(fā)者滿足了風(fēng)險(xiǎn)管理的十項(xiàng)義務(wù),就可以獲得法律責(zé)任的豁免。綜合而言,加州正在進(jìn)行的立法所針對(duì)的監(jiān)管對(duì)象、預(yù)防的風(fēng)險(xiǎn)都非常有限,基本上采取了行業(yè)自治與合規(guī)免責(zé)的立場(chǎng)。
二、歐盟的人工智能立法
與美國(guó)的分散化、市場(chǎng)化人工智能立法進(jìn)路不同,歐盟采取了人工智能統(tǒng)一規(guī)制的立法進(jìn)路。在公法監(jiān)管層面,歐盟首先在2024年正式通過了《人工智能法》(Artificial Intelligence Act),確立了對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行統(tǒng)一化和分類分級(jí)的規(guī)制進(jìn)路。在產(chǎn)品責(zé)任與侵權(quán)領(lǐng)域,歐盟正在起草的《產(chǎn)品責(zé)任指令》(Product Liability Directive)和《人工智能責(zé)任指令》(AI Liability Directive)則確立了人工智能系統(tǒng)的產(chǎn)品責(zé)任與人工智能侵權(quán)的特殊舉證責(zé)任。
(一)統(tǒng)一化的風(fēng)險(xiǎn)規(guī)制
歐盟《人工智能法》將人工智能系統(tǒng)分為兩類:產(chǎn)品構(gòu)成類和獨(dú)立于產(chǎn)品的輔助決策類人工智能系統(tǒng)。前者例如醫(yī)療器械、自動(dòng)駕駛、輪船、玩具等產(chǎn)品內(nèi)部包含的人工智能系統(tǒng),后者例如用于招聘雇傭、招生升學(xué)、移民篩查、執(zhí)法檢查等各類應(yīng)用場(chǎng)景的人工智能系統(tǒng)。對(duì)于這兩類人工智能系統(tǒng),歐盟《人工智能法》認(rèn)識(shí)到其顯著區(qū)別,即前者產(chǎn)生的是安全、人身和財(cái)產(chǎn)性的產(chǎn)品類損害,后者產(chǎn)生的主要是基本權(quán)利類侵害。但歐盟《人工智能法》仍然將這些不同類別的人工智能系統(tǒng)放在一起進(jìn)行統(tǒng)一規(guī)制,既不區(qū)分產(chǎn)品類與輔助決策類人工智能系統(tǒng),也不區(qū)分適用于公共部門與私營(yíng)部門的人工智能系統(tǒng)。
在風(fēng)險(xiǎn)分級(jí)上,歐盟《人工智能法》也進(jìn)行統(tǒng)一分級(jí),將風(fēng)險(xiǎn)分為禁止性(prohibited)、高風(fēng)險(xiǎn)(high-risk)、有限風(fēng)險(xiǎn)(limited-risk)、最小風(fēng)險(xiǎn)(minimal-risk)四類,并著重對(duì)高風(fēng)險(xiǎn)進(jìn)行了規(guī)定。其中禁止類的風(fēng)險(xiǎn)主要包括利用潛意識(shí)技術(shù)(subliminaltechniques)扭曲個(gè)人或群體的行為,造成重大傷害、利用人工智能危害特定弱勢(shì)群體、進(jìn)行社會(huì)信用評(píng)分(social scoring)、利用人工智能進(jìn)行特定侵入性的執(zhí)法等類型。而高風(fēng)險(xiǎn)主要包括應(yīng)用于現(xiàn)有歐盟產(chǎn)品安全法范圍的人工智能系統(tǒng),以及在生物識(shí)別、關(guān)鍵基礎(chǔ)設(shè)施、教育和職業(yè)培訓(xùn)、就業(yè)、工人管理和自營(yíng)職業(yè)機(jī)會(huì)、獲得和享受基本的私人服務(wù)和公共服務(wù)及福利、執(zhí)法、移民、庇護(hù)和邊境管制管理、司法和民主進(jìn)程等特定領(lǐng)域應(yīng)用人工智能系統(tǒng)。
對(duì)于高風(fēng)險(xiǎn)的人工智能,人工智能系統(tǒng)的提供者(provider)需要承擔(dān)一系列責(zé)任,例如在進(jìn)入市場(chǎng)流通之前承擔(dān)風(fēng)險(xiǎn)管理系統(tǒng)、數(shù)據(jù)治理、技術(shù)性文件、記錄保存、透明度和向部署者提供信息、人為監(jiān)督,以及準(zhǔn)確性、穩(wěn)健性和網(wǎng)絡(luò)安全。在進(jìn)入市場(chǎng)后應(yīng)建立和記錄與人工智能技術(shù)的性質(zhì)、高風(fēng)險(xiǎn)人工智能系統(tǒng)的風(fēng)險(xiǎn)相稱“上市后監(jiān)測(cè)系統(tǒng)”(post-market monitoring system)。相對(duì)而言,高風(fēng)險(xiǎn)人工智能系統(tǒng)的部署者則需要承擔(dān)相對(duì)較少的責(zé)任,例如確保采取適當(dāng)?shù)募夹g(shù)和組織措施,以按照系統(tǒng)所附的使用說明使用這些系統(tǒng);確保由自然人進(jìn)行人類監(jiān)控;確保輸入數(shù)據(jù)與高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期用途相關(guān)且具有足夠的代表性;根據(jù)使用說明監(jiān)控高風(fēng)險(xiǎn)人工智能系統(tǒng)的運(yùn)行,并在必要時(shí)向供應(yīng)商提供信息;保存自動(dòng)生成的日志等。
隨著近年來生成式人工智能與大模型的爆發(fā)性發(fā)展,歐盟《人工智能法》還在修訂過程中提出了“通用人工智能模型”(generalpurpose AI model)的概念,對(duì)其進(jìn)行特殊規(guī)定。這類人工智能的提供者需要承擔(dān)提供技術(shù)性文件、向下游人工智能系統(tǒng)的提供者披露信息和文件、提供模型訓(xùn)練所使用內(nèi)容的摘要、與主管當(dāng)局合作等責(zé)任。此外,如果此類人工智能具有“高影響能力”(high impact capabilities),就可能成為“具有系統(tǒng)性風(fēng)險(xiǎn)的通用人工智能模型”(general-purposeAI model with systemic risk),需要承擔(dān)特殊責(zé)任,例如進(jìn)行模型評(píng)價(jià)(model evaluation),評(píng)估和減輕系統(tǒng)性風(fēng)險(xiǎn),追蹤、記錄和報(bào)告嚴(yán)重事件的相關(guān)信息與可能的糾正措施,確保足夠水平的網(wǎng)絡(luò)安全保護(hù)等責(zé)任。
(二)產(chǎn)品責(zé)任與侵權(quán)責(zé)任
與人工智能的公法規(guī)制相應(yīng),歐盟在產(chǎn)品責(zé)任與侵權(quán)責(zé)任方面對(duì)人工智能也進(jìn)行了特殊立法。在產(chǎn)品責(zé)任方面,歐盟委員會(huì)在2022年提出了新的產(chǎn)品責(zé)任指令草案,這一產(chǎn)品責(zé)任指令草案意圖對(duì)已經(jīng)實(shí)施了40年的《產(chǎn)品責(zé)任指令》進(jìn)行更新,以適應(yīng)數(shù)字時(shí)代的新變化。根據(jù)這一草案,軟件和獨(dú)立人工智系統(tǒng)將首次被納入“產(chǎn)品”的范疇,這些產(chǎn)品的制造者(manufactures)將對(duì)具有缺陷的產(chǎn)品承擔(dān)嚴(yán)格責(zé)任。而非獨(dú)立存在的人工智能系統(tǒng)如果被整合到產(chǎn)品中,或者對(duì)于產(chǎn)品發(fā)揮功能不可或缺,那么這類非人工智能系統(tǒng)就構(gòu)成“相關(guān)服務(wù)”(related service),成為產(chǎn)品的“組件”(component)。針對(duì)產(chǎn)品組件,其制造者也需要承擔(dān)嚴(yán)格產(chǎn)品責(zé)任。
在侵權(quán)責(zé)任方面,歐盟委員會(huì)在2022年提出了《人工智能責(zé)任指令(草案)》,對(duì)基于過錯(cuò)原則的人工智能侵權(quán)進(jìn)行了規(guī)定。這一草案可以視為《人工智能法》的侵權(quán)法配套立法,聚焦高風(fēng)險(xiǎn)人工智能的侵權(quán)責(zé)任,特別是高風(fēng)險(xiǎn)人工智能侵權(quán)中的舉證責(zé)任。根據(jù)這一草案,如果人工智能系統(tǒng)沒有遵守歐盟法或各國(guó)法關(guān)于人工智能系統(tǒng)的注意義務(wù)規(guī)定,那么人工智能系統(tǒng)的輸出或未能正常輸出與相關(guān)損害之間存在可反駁的因果關(guān)系(rebuttable causation),即法律將假設(shè)二者之間存在因果關(guān)系,但這種因果關(guān)系可以被推翻。此外,各國(guó)法院將有權(quán)要求高風(fēng)險(xiǎn)人工智能的提供者或使用者披露相關(guān)證據(jù)與信息,以平衡原告在此類侵權(quán)中的信息能力。
新的產(chǎn)品責(zé)任指令草案與《人工智能責(zé)任指令(草案)》的關(guān)系極為復(fù)雜,其中的一些交叉之處引起了不少學(xué)者的尖銳批評(píng)。本文限于篇幅不對(duì)這些問題進(jìn)行詳細(xì)論述,在此僅指出歐盟對(duì)于兩部立法的整體意圖與思路。新的產(chǎn)品責(zé)任指令草案更傾向于實(shí)現(xiàn)歐盟各國(guó)法律的統(tǒng)一,以促進(jìn)產(chǎn)品在各國(guó)的自由流通,因此采取了嚴(yán)格產(chǎn)品責(zé)任的立法進(jìn)路。而《人工智能責(zé)任指令(草案)》則仍然以歐盟各國(guó)侵權(quán)法為主,因此仍然采取過錯(cuò)責(zé)任的進(jìn)路,只在舉證責(zé)任方面進(jìn)行特殊規(guī)定。從兩部法律的內(nèi)容與目前的立法進(jìn)程看,新的產(chǎn)品責(zé)任指令草案很可能會(huì)率先通過成為法律,而且其適用將很大程度排除人工智能責(zé)任指令的適用空間。不過,由于歐盟對(duì)于產(chǎn)品責(zé)任的救濟(jì)限于生命權(quán)(the right to life)、身體完整權(quán)(bodily integrity)、健康權(quán)和財(cái)產(chǎn)權(quán)(health and property),對(duì)于人工智能造成的侵犯?jìng)€(gè)人隱私、侮辱誹謗等侵權(quán),未來《人工智能責(zé)任指令(草案)》如果通過,這一聚焦于舉證責(zé)任的立法和歐盟各國(guó)的侵權(quán)法將仍然能夠在人工智能侵權(quán)中發(fā)揮一定作用。
三、比較視野下的人工智能立法原理
從比較的角度出發(fā),可以對(duì)人工智能立法的一般原理進(jìn)行分析。本部分從上文所述的美歐立法出發(fā),結(jié)合域外其他國(guó)家和地區(qū)的立法實(shí)踐,對(duì)人工智能的立法價(jià)值、公法規(guī)制、侵權(quán)與產(chǎn)品責(zé)任進(jìn)行分析。
(一)立法價(jià)值
在立法價(jià)值層面,美國(guó)與歐盟立法雖然都強(qiáng)調(diào)人工智能的發(fā)展與安全的平衡,不過,二者的導(dǎo)向具有較大區(qū)別。就美國(guó)而言,美國(guó)對(duì)于國(guó)內(nèi)人工智能發(fā)展的風(fēng)險(xiǎn)采取了市場(chǎng)主導(dǎo)與創(chuàng)新驅(qū)動(dòng)的進(jìn)路。美國(guó)的法律、政治與文化一直信任市場(chǎng)的力量,支持企業(yè)通過市場(chǎng)競(jìng)爭(zhēng)為消費(fèi)者與市場(chǎng)提供更為優(yōu)質(zhì)和更豐富多樣的產(chǎn)品。在風(fēng)險(xiǎn)問題上,美國(guó)也一直偏向個(gè)人自負(fù)其責(zé)的風(fēng)險(xiǎn)預(yù)防理念,對(duì)政府過度介入市場(chǎng)保持警惕。在這種理念的指導(dǎo)下,就不難理解為何美國(guó)的人工智能立法主要針對(duì)政府規(guī)制機(jī)構(gòu),對(duì)企業(yè)僅限于消費(fèi)者知情權(quán)、反歧視保護(hù)。對(duì)政府機(jī)構(gòu)的人工智能應(yīng)用進(jìn)行規(guī)制,可以維護(hù)政府公信力、保障公民基本權(quán)利;而消費(fèi)者知情權(quán)可以有效保障個(gè)體作出有效選擇,促進(jìn)市場(chǎng)機(jī)制的有效運(yùn)轉(zhuǎn);特定領(lǐng)域的反歧視則可以促進(jìn)用人單位、招生單位等主體作出合乎市場(chǎng)理性的決定。
就涉外法治而言,美國(guó)的人工智能立法采取了積極競(jìng)爭(zhēng)、國(guó)際協(xié)調(diào)與遏制圍堵的多重價(jià)值取向。首先,美國(guó)對(duì)于歐盟過度的政府規(guī)制的立場(chǎng)一直持懷疑立場(chǎng),在人工智能立法領(lǐng)域亦是如此,這使得美國(guó)的人工智能立法不可能模仿歐盟進(jìn)行立法。即使美國(guó)的一些意識(shí)形態(tài)與歐盟更接近的“藍(lán)州”(blue state),例如上文提到的科羅拉多州和猶他州,其立法也僅僅是借鑒了歐盟的極少量制度工具,與歐盟全面性的人工智能規(guī)制仍然存在本質(zhì)區(qū)別。其次,為了發(fā)揮其國(guó)際領(lǐng)導(dǎo)力,特別是為了對(duì)抗中國(guó)的影響力,美國(guó)也積極通過經(jīng)濟(jì)合作與發(fā)展組織(OECD)、G7等組織輸出其規(guī)則制定的影響力。特別是2020年拜登政府上臺(tái)以來,為了扭轉(zhuǎn)特朗普政府的孤立主義,拜登政府強(qiáng)化了與歐盟在科技與人工智能領(lǐng)域的規(guī)則協(xié)調(diào)。最后,為了與中國(guó)進(jìn)行競(jìng)爭(zhēng),美國(guó)在人工智能領(lǐng)域也走向了“小院高墻”的道路,反映了美國(guó)封閉和敵對(duì)性的冷戰(zhàn)思維。
與美國(guó)相反,歐盟在價(jià)值取向上更注重人工智能本身的安全。歐盟的這種價(jià)值取向由來已久,從農(nóng)產(chǎn)品到工業(yè)化產(chǎn)品和人權(quán)保護(hù),歐盟一直標(biāo)榜自身在幾乎所有領(lǐng)域的“高標(biāo)準(zhǔn)、嚴(yán)要求”。例如歐盟農(nóng)產(chǎn)品對(duì)于食品安全標(biāo)準(zhǔn)要比美國(guó)更為嚴(yán)格,歐盟也自認(rèn)為具有全球最高的人權(quán)保護(hù)標(biāo)準(zhǔn)。正是在這種自信之下,歐盟在互聯(lián)網(wǎng)、個(gè)人數(shù)據(jù)與人工智能領(lǐng)域進(jìn)行了一系列立法,認(rèn)為此種立法能夠發(fā)揮布魯塞爾效應(yīng),將歐盟法律上升為全球的黃金標(biāo)準(zhǔn)。在農(nóng)業(yè)與工業(yè)領(lǐng)域,此類戰(zhàn)略也的確起到了較大的成功。例如歐盟的農(nóng)業(yè)與工業(yè)雖然整體上無法與美國(guó)的市場(chǎng)化模式進(jìn)行競(jìng)爭(zhēng),但在很多細(xì)分特別是高檔消費(fèi)領(lǐng)域,歐盟的這種戰(zhàn)略都發(fā)揮了重要作用。例如歐盟的很多農(nóng)產(chǎn)品、餐飲、化妝品、對(duì)安全性能要求較高的工業(yè)產(chǎn)品都具有很強(qiáng)的硬競(jìng)爭(zhēng)力,其規(guī)則制定也具有很強(qiáng)的軟性全球影響力。
不過,在數(shù)字領(lǐng)域,歐盟在產(chǎn)業(yè)與技術(shù)領(lǐng)域的硬實(shí)力影響逐漸消退,其影響力集中在規(guī)則制定的軟實(shí)力領(lǐng)域。在包括人工智能在內(nèi)的數(shù)字經(jīng)濟(jì)領(lǐng)域,目前全球的產(chǎn)業(yè)與技術(shù)主要集中在美國(guó)與中國(guó),尤其集中在美國(guó),而歐盟則幾乎沒有特別具有影響力的數(shù)字企業(yè)與領(lǐng)先技術(shù)。歐盟的這種現(xiàn)狀使得其數(shù)字領(lǐng)域的立法成為了一把雙刃劍。對(duì)于與歐盟數(shù)字產(chǎn)業(yè)情況類似的國(guó)家和地區(qū)而言,效仿歐盟模式進(jìn)行立法,是一種較為簡(jiǎn)便易行的立法模式,既可以對(duì)數(shù)字產(chǎn)業(yè)進(jìn)行有效規(guī)范,又可以利用立法對(duì)域外大型互聯(lián)網(wǎng)與科技企業(yè)進(jìn)行有效監(jiān)管。但對(duì)于數(shù)字產(chǎn)業(yè)較為發(fā)達(dá)或力圖發(fā)展的國(guó)家和地區(qū)而言,歐盟的立法將對(duì)數(shù)字科技的發(fā)展與創(chuàng)新帶來較大的阻礙。
在人工智能立法領(lǐng)域,可以預(yù)見域外其他國(guó)家和地區(qū)將不會(huì)很快效仿歐盟。目前,新加坡、印度等國(guó)家和地區(qū)都出臺(tái)了一些人工智能政策與文件,不過,這些政策與文件都是非強(qiáng)制性的,例如新加坡的《模范人工智能治理框架》、印度的《負(fù)責(zé)任人工智能》都屬于推薦性與倡導(dǎo)性規(guī)范,對(duì)企業(yè)并無法律上的強(qiáng)制力。目前,全球人工智能發(fā)展方興未艾,其技術(shù)正處于發(fā)展的關(guān)鍵時(shí)期,各國(guó)都視其為國(guó)家競(jìng)爭(zhēng)力的重要組成部分與發(fā)展機(jī)遇,此時(shí)各國(guó)不太可能效仿歐盟進(jìn)行全面立法。這一點(diǎn)與個(gè)人信息保護(hù)領(lǐng)域非常不同。在個(gè)人信息保護(hù)領(lǐng)域,全球大部分國(guó)家之所以效仿歐盟,主要是因?yàn)閭€(gè)人信息保護(hù)法的制度框架已經(jīng)基本定型,加上個(gè)人信息與公民基本權(quán)利、數(shù)據(jù)跨境流通等問題密切相關(guān),因此全球掀起了以歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)為效仿對(duì)象的大范圍立法。在人工智能領(lǐng)域,目前各國(guó)在價(jià)值取向上尚未形成這一共識(shí)。
(二)風(fēng)險(xiǎn)規(guī)制
就風(fēng)險(xiǎn)規(guī)制而言,對(duì)人工智能進(jìn)行分領(lǐng)域、分場(chǎng)景的規(guī)制,更符合人工智能立法的基本原理。其原因在于,人工智能深嵌于不同的部門、行業(yè)、產(chǎn)品、服務(wù),其風(fēng)險(xiǎn)因?yàn)椴煌念I(lǐng)域與場(chǎng)景而不同。例如就公私劃分而言,公共部門特別是行政部門對(duì)于人工智能的應(yīng)用會(huì)帶來較大的風(fēng)險(xiǎn),當(dāng)公共部門將人工智能應(yīng)用于司法審判、執(zhí)法監(jiān)督、升學(xué)招生,此類人工智能系統(tǒng)將直接對(duì)公民個(gè)體的知情權(quán)、正當(dāng)程序性權(quán)利產(chǎn)生影響。當(dāng)人工智能系統(tǒng)出現(xiàn)不合理決策,這類決策就可能對(duì)大范圍的主體產(chǎn)生不利影響,既影響公民個(gè)體的正當(dāng)權(quán)利,也影響公眾對(duì)政府的信任。私營(yíng)部門或企業(yè)對(duì)于人工智能的影響則不同,即使人工智能系統(tǒng)對(duì)用戶或消費(fèi)者產(chǎn)生不利影響,這類影響也主要限于市場(chǎng)環(huán)境下的消費(fèi)者權(quán)利,而且消費(fèi)者也可以通過選擇其他企業(yè)所提供的產(chǎn)品或服務(wù)而抵消此類影響。同時(shí),私營(yíng)部門在市場(chǎng)競(jìng)爭(zhēng)的壓力下,也往往比公共機(jī)構(gòu)行動(dòng)更為敏捷,更能及時(shí)回應(yīng)消費(fèi)者的投訴與需求;對(duì)于人工智能系統(tǒng)所可能帶來的負(fù)面作用,私營(yíng)部門將具有更強(qiáng)的動(dòng)力和能力來矯正相關(guān)問題。
不同行業(yè)、產(chǎn)品、服務(wù)中的人工智能系統(tǒng)風(fēng)險(xiǎn)也并不相同。例如,就行業(yè)而言,民航業(yè)和汽車業(yè)的人工智能系統(tǒng)就非常不同,民航的人工智能系統(tǒng)主要涉及飛行本身的安全問題,其對(duì)風(fēng)險(xiǎn)的容忍度非常低,而且主要考慮民航飛行器本身的安全問題;但汽車業(yè)的人工智能系統(tǒng)風(fēng)險(xiǎn)的容忍度就要相對(duì)較高,而且主要考慮汽車之間、汽車與行人之間的風(fēng)險(xiǎn)問題。就產(chǎn)品而言,同一個(gè)行業(yè)的產(chǎn)品對(duì)于人工智能系統(tǒng)的風(fēng)險(xiǎn)容忍度也不同,例如同樣是醫(yī)療產(chǎn)品,運(yùn)用心臟手術(shù)的人工智能醫(yī)療器械與應(yīng)用于一般輔助醫(yī)療的人工智能醫(yī)療器械所面臨的風(fēng)險(xiǎn)就不同。就服務(wù)而言,專業(yè)性服務(wù)和非專業(yè)性服務(wù)所運(yùn)用的人工智能系統(tǒng)風(fēng)險(xiǎn)也不同,對(duì)于醫(yī)療、律師等傳統(tǒng)上受到國(guó)家規(guī)制的服務(wù)業(yè),人工智能運(yùn)用可能帶來更大的風(fēng)險(xiǎn),但對(duì)于一般的語音聊天類服務(wù),則此類風(fēng)險(xiǎn)就要小得多。
由于人工智能系統(tǒng)的嵌入性特征,更為合理的方式是將人工智能風(fēng)險(xiǎn)規(guī)制還原到不同的領(lǐng)域與場(chǎng)景中進(jìn)行規(guī)制,而非將其作為獨(dú)立對(duì)象進(jìn)行統(tǒng)一規(guī)制。對(duì)于研究人工智能的學(xué)者來說,這可能聽上去有些令人失望,因?yàn)檫@將意味著人工智能監(jiān)管將與傳統(tǒng)的法律領(lǐng)域與法律部門相結(jié)合。但這種進(jìn)路更為符合人工智能的場(chǎng)景化特征,能夠避免對(duì)人工智能進(jìn)行不切實(shí)際的統(tǒng)一化監(jiān)管。如果對(duì)人工智能進(jìn)行統(tǒng)一化監(jiān)管,實(shí)施統(tǒng)一化的風(fēng)險(xiǎn)分級(jí),那么法律將必然變得高度不確定與難以操作,最終也會(huì)在操作層面回到對(duì)人工智能的領(lǐng)域化、行業(yè)性與部門法監(jiān)管。試想,如果將醫(yī)療器械中的人工智能與自動(dòng)駕駛中的人工智能進(jìn)行統(tǒng)一化監(jiān)管,要求監(jiān)管人員或?qū)I(yè)評(píng)估人員對(duì)這兩類人工智能系統(tǒng)進(jìn)行風(fēng)險(xiǎn)評(píng)估,監(jiān)管人員或?qū)I(yè)評(píng)估人員勢(shì)必將再次求助于醫(yī)療行業(yè)與汽車行業(yè)的專家
就此而言,歐盟的人工智能監(jiān)管路徑并不合理。歐盟的人工智能風(fēng)險(xiǎn)監(jiān)管過于追求其形式的統(tǒng)一性,將不同行業(yè)和領(lǐng)域的人工智能風(fēng)險(xiǎn)統(tǒng)一劃分為不同級(jí)別。但這種劃分其實(shí)非常武斷,在未來風(fēng)險(xiǎn)評(píng)估中也必然會(huì)面臨巨大爭(zhēng)議。歐盟對(duì)于通用人工智能的風(fēng)險(xiǎn)監(jiān)管也說明了這一點(diǎn),在2021年的歐盟人工智能法草案提出禁止性風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、最小風(fēng)險(xiǎn)四類風(fēng)險(xiǎn)后,生成式人工智能的橫空出世使得歐盟束手無策,不知道將這類風(fēng)險(xiǎn)歸入哪類風(fēng)險(xiǎn)。萬般無奈之下,歐盟只得對(duì)人工智能法草案進(jìn)行修訂,單獨(dú)將“通用人工智能模型”作為獨(dú)立類型的人工智能,并引入“系統(tǒng)性風(fēng)險(xiǎn)”的風(fēng)險(xiǎn)分類。這里且不論其對(duì)“系統(tǒng)性風(fēng)險(xiǎn)”人工智能所施加的義務(wù)是否合理,單就風(fēng)險(xiǎn)分類分級(jí)而言,“通用人工智能模型”就表明了歐盟在人工智能統(tǒng)一規(guī)制與統(tǒng)一風(fēng)險(xiǎn)分級(jí)所面臨的困境。隨著未來各類新人工智能新技術(shù)的層出不窮與不同場(chǎng)景風(fēng)險(xiǎn)的變化,很難想象歐盟可以對(duì)不同類型的人工智能風(fēng)險(xiǎn)進(jìn)行統(tǒng)一和科學(xué)的風(fēng)險(xiǎn)分級(jí)。
相對(duì)而言,美國(guó)以及域外一些國(guó)家和地區(qū)所采取的一些小切口的立法進(jìn)路更符合人工智能風(fēng)險(xiǎn)監(jiān)管的一般原理。與歐盟相比,此類立法進(jìn)路并不追求對(duì)人工智能進(jìn)行統(tǒng)一規(guī)制,而是依賴現(xiàn)有領(lǐng)域、行業(yè)和制度對(duì)人工智能進(jìn)行監(jiān)管。這種進(jìn)路除了可以與現(xiàn)有監(jiān)管體系有效銜接,實(shí)現(xiàn)法律制度的穩(wěn)定性與可操作性,也可以更為科學(xué)合理地界定不同場(chǎng)景下的人工智能風(fēng)險(xiǎn)。實(shí)際上,即使是歐盟也已經(jīng)在一定程度上認(rèn)識(shí)到了人工智能風(fēng)險(xiǎn)的場(chǎng)景性。例如歐盟《人工智能法》將人工智能系統(tǒng)區(qū)分為產(chǎn)品構(gòu)成類的人工智能系統(tǒng)與獨(dú)立存在的人工智能系統(tǒng);對(duì)于獨(dú)立存在的人工智能系統(tǒng),歐盟委員會(huì)也可以對(duì)其附件三(Annex III)所列舉高風(fēng)險(xiǎn)人工智能應(yīng)用目錄進(jìn)行調(diào)整。這些規(guī)定說明,歐盟在立法層面已經(jīng)認(rèn)識(shí)到人工智能系統(tǒng)的場(chǎng)景性與動(dòng)態(tài)性。而在未來的執(zhí)法與司法層面,歐盟也極有可能會(huì)與不同領(lǐng)域、行業(yè)與部門的監(jiān)管者與專家進(jìn)行溝通,對(duì)不同場(chǎng)景進(jìn)行不同的風(fēng)險(xiǎn)規(guī)制。
(三)產(chǎn)品責(zé)任
對(duì)人工智能系統(tǒng)適用產(chǎn)品責(zé)任也不合理。最簡(jiǎn)單而言,產(chǎn)品責(zé)任可以從不同角度進(jìn)行論述:其一,產(chǎn)品制造者有責(zé)任向消費(fèi)者提供安全產(chǎn)品,這種責(zé)任就像是合同法中的隱含保證(implied warranty)一樣;其二,從法律經(jīng)濟(jì)學(xué)的角度看,產(chǎn)品的制造者可以以最小成本避免侵權(quán)事故的發(fā)生,產(chǎn)業(yè)鏈中的商家特別是產(chǎn)品制造者可以更容易地避免事故發(fā)生,作為事故的“最小成本避免者”(least cost avoider),由產(chǎn)品制造者承擔(dān)責(zé)任更為合理;其三,產(chǎn)品侵權(quán)所造成的并不僅僅是個(gè)體性侵權(quán),而是大范圍公共性侵權(quán),具有危害公共安全的性質(zhì);其四,從過錯(cuò)與補(bǔ)救的角度看,制造有缺陷的產(chǎn)品就是一種法律上所認(rèn)定的過錯(cuò),受害者有權(quán)獲得救濟(jì)。
但通過對(duì)人工智能的性質(zhì)與特點(diǎn)的分析,可以發(fā)現(xiàn)這些論述無法對(duì)人工智能產(chǎn)品施加嚴(yán)格產(chǎn)品責(zé)任。人工智能系統(tǒng)無法像傳統(tǒng)產(chǎn)品那樣,能夠保證其不會(huì)出錯(cuò)。有關(guān)軟件科學(xué)與操作系統(tǒng)的大量案例與實(shí)踐表明,軟件與操作系統(tǒng)中的程序錯(cuò)誤(bug)不可避免。產(chǎn)品硬件可以通過材料的疊加、強(qiáng)化等方式實(shí)現(xiàn)產(chǎn)品安全,但軟件與操作系統(tǒng)中的卻不可能通過這些方案來解決,簡(jiǎn)單的程序疊加重復(fù)并不會(huì)降低事故發(fā)生的概率。人工智能系統(tǒng)的提供者或制造者也并非事故的“最小成本避免者”或預(yù)防公共安全的最佳主體。對(duì)于產(chǎn)品構(gòu)成類的人工智能系統(tǒng)而言,這類人工智能系統(tǒng)會(huì)帶來哪些風(fēng)險(xiǎn)和收益,是否以及如何進(jìn)行避免,往往取決于其嵌入產(chǎn)品的特點(diǎn),而非取決于人工智能系統(tǒng)本身。例如,醫(yī)療人工智能系統(tǒng)的準(zhǔn)確性與效率性要結(jié)合具體醫(yī)療產(chǎn)品的使用方式、使用目的進(jìn)行判斷。要避免此類事故的發(fā)生,醫(yī)療器械的終端產(chǎn)品制造者和應(yīng)用者要比人工智能系統(tǒng)提供者更為了解相關(guān)信息。
即使法律在紙面上將人工智能系統(tǒng)納入嚴(yán)格產(chǎn)品責(zé)任,其在實(shí)踐中也必然會(huì)更接近于過錯(cuò)責(zé)任。在軟件的發(fā)展歷程中,各國(guó)就曾經(jīng)試圖對(duì)軟件進(jìn)行類似實(shí)體產(chǎn)品的標(biāo)準(zhǔn)化管理,對(duì)其施加類似實(shí)體產(chǎn)品的嚴(yán)格產(chǎn)品責(zé)任。但后來的實(shí)踐證明,此類管理與責(zé)任不符合軟件的特征,各國(guó)的法律仍然從整體上對(duì)軟件侵權(quán)采取過錯(cuò)責(zé)任。對(duì)軟件的嚴(yán)格責(zé)任僅限于極少數(shù)情形,例如輔助飛機(jī)導(dǎo)航的航圖(aeronautical charts)。這類軟件由于其高度標(biāo)準(zhǔn)化、安全程度要求極高,對(duì)其施加嚴(yán)格責(zé)任具有合理性。但對(duì)于其他絕大部分軟件來說,其性質(zhì)更接近于通過代碼形式而實(shí)現(xiàn)的復(fù)雜信息服務(wù)(information service)。對(duì)于信息服務(wù),更為合理的方式是對(duì)其適用合同責(zé)任、侵權(quán)法上的過錯(cuò)責(zé)任,以及基于政府監(jiān)管或行業(yè)性自治的倫理責(zé)任。人工智能系統(tǒng)與軟件系統(tǒng)具有一定的類似性,但具有更強(qiáng)的變化性或“涌現(xiàn)性”(emergent)特征,更加依附于具體產(chǎn)品或場(chǎng)景,也因此更難實(shí)現(xiàn)像實(shí)體產(chǎn)品一樣的產(chǎn)品安全。
避免對(duì)人工智能系統(tǒng)施加產(chǎn)品責(zé)任,并非在私法上免除相關(guān)主體的責(zé)任。法律除了可以對(duì)人工智能的提供者施加合同責(zé)任、侵權(quán)法上的過錯(cuò)責(zé)任、倫理責(zé)任之外,仍然可以對(duì)人工智能所構(gòu)成的終端產(chǎn)品施加嚴(yán)格產(chǎn)品責(zé)任。終端產(chǎn)品的制造商特別是大型企業(yè),對(duì)其施加嚴(yán)格責(zé)任更為合理。就產(chǎn)業(yè)上游的風(fēng)險(xiǎn)控制而言,這類企業(yè)完全有能力辨識(shí)人工智能系統(tǒng)的風(fēng)險(xiǎn)并利用合同機(jī)制進(jìn)行風(fēng)險(xiǎn)預(yù)防,毋需通過產(chǎn)品責(zé)任法上的隱含安全保證來規(guī)避風(fēng)險(xiǎn)。就下游風(fēng)險(xiǎn)而言,消費(fèi)者直接接觸的也主要是這類大型企業(yè),讓這些企業(yè)承擔(dān)嚴(yán)格責(zé)任,可以更好地保障消費(fèi)者權(quán)利、維護(hù)公眾對(duì)于人工智能構(gòu)成類產(chǎn)品的信心。
此外,不同領(lǐng)域、行業(yè)與部門可以對(duì)不同的產(chǎn)品設(shè)定安全監(jiān)管與市場(chǎng)準(zhǔn)入標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)將可以為人工智能侵權(quán)提供標(biāo)準(zhǔn)或參照。例如,如果汽車行業(yè)的監(jiān)管部門認(rèn)定,事故發(fā)生率低于人類駕駛事故發(fā)生率一半的自動(dòng)駕駛車輛屬于安全汽車,那么法院就可以以監(jiān)管部門認(rèn)定的安全標(biāo)準(zhǔn)作為侵權(quán)判斷的基準(zhǔn),同時(shí)通過侵權(quán)個(gè)案判斷人工智能提供者、汽車制造商、人類駕駛員等不同主體是否存在過錯(cuò)。人工智能系統(tǒng)的侵權(quán)責(zé)任問題是一個(gè)極為復(fù)雜的問題,需要另外撰文論述,本文僅僅指出,簡(jiǎn)單對(duì)人工智能系統(tǒng)本身施加嚴(yán)格產(chǎn)品責(zé)任,并不符合人工智能的特征與產(chǎn)品責(zé)任法的基本原理。
四、全球視野下的我國(guó)人工智能立法
從比較與全球競(jìng)爭(zhēng)的視野出發(fā),最后可以對(duì)我國(guó)的人工智能立法進(jìn)行分析與展望。整體而言,我國(guó)人工智能的立法現(xiàn)狀反映了我國(guó)獨(dú)特的國(guó)情,也與人工智能立法的基本原理具有一致性。展望未來,我國(guó)的人工智能立法應(yīng)當(dāng)在一段時(shí)間內(nèi)堅(jiān)持現(xiàn)行立法進(jìn)路,不急于快速立法,待到未來時(shí)機(jī)成熟時(shí)再考慮制定人工智能法。我國(guó)人工智能法如果進(jìn)行制定,可以從立法價(jià)值、公法規(guī)制、私法特殊制度三個(gè)層面展開。
(一)我國(guó)的人工智能立法現(xiàn)狀評(píng)析
目前,我國(guó)尚未對(duì)人工智能進(jìn)行類似歐盟的整體性立法,也沒有在官方層面起草可供審議的人工智能法草案。我國(guó)政府在立法規(guī)劃上已經(jīng)將人工智能立法列入相關(guān)議程,例如2017年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出到2020年實(shí)現(xiàn)“部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立”,到2025年“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系”,到2030年“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”。但在實(shí)際立法進(jìn)程中,我國(guó)仍然采取了審慎的立場(chǎng)。
在已有的立法中,影響力最大的是國(guó)家互聯(lián)網(wǎng)信息辦公室聯(lián)合多部門發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱“《暫行辦法》”)。但整體而言,這一部門規(guī)章仍然聚焦于生成式人工智能這一特定的場(chǎng)景,并且主要將已有立法應(yīng)用于生成式人工智能領(lǐng)域。在上位法依據(jù)上,《暫行辦法》將我國(guó)網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個(gè)人信息保護(hù)法、科學(xué)技術(shù)進(jìn)步法等法律作為立法依據(jù);在監(jiān)管領(lǐng)域方面,《暫行辦法》聚焦違法信息、算法歧視、知識(shí)產(chǎn)權(quán)、人格權(quán)與個(gè)人信息保護(hù)、未成年人保護(hù)等問題,規(guī)定人工智能領(lǐng)域違反相關(guān)法律或侵犯相關(guān)權(quán)益的,責(zé)任不能獲得赦免。就此而言,《暫行辦法》雖然以生成式人工智能作為監(jiān)管對(duì)象,但并未對(duì)生成式人工智能創(chuàng)設(shè)新的法律義務(wù)。即使這一《暫行辦法》沒有制定,相關(guān)主體也仍然需要在發(fā)展與使用生成式人工智能的過程中承擔(dān)相應(yīng)的法律義務(wù)。《暫行辦法》的意義在于對(duì)生成式人工智能的監(jiān)管更為聚焦,并明確發(fā)出了生成式人工智能“不是法外之地”的信號(hào)。
除此之外,我國(guó)對(duì)不同領(lǐng)域部門的人工智能應(yīng)用制定了場(chǎng)景化的規(guī)則。例如,在司法領(lǐng)域,最高人民法院發(fā)布了《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》,重點(diǎn)突出了“輔助審判”原則,強(qiáng)調(diào)“無論技術(shù)發(fā)展到何種水平,人工智能都不得代替法官裁判,人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,確保司法裁判始終由審判人員作出,裁判職權(quán)始終由審判組織行使,司法責(zé)任最終由裁判者承擔(dān)”。在勞動(dòng)保護(hù)領(lǐng)域,市場(chǎng)監(jiān)管總局、人力資源社會(huì)保障部等多部委在《關(guān)于落實(shí)網(wǎng)絡(luò)餐飲平臺(tái)責(zé)任切實(shí)維護(hù)外賣送餐員權(quán)益的指導(dǎo)意見》中提出,對(duì)外賣騎手的考核應(yīng)當(dāng)以“算法取中”等方式替代“最嚴(yán)算法”,合理確定訂單數(shù)量、準(zhǔn)時(shí)率、在線率等考核要素,適當(dāng)放寬配送時(shí)限。在信息服務(wù)與輿論傳播領(lǐng)域,國(guó)家互聯(lián)網(wǎng)信息辦公室等部門發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,規(guī)定深度合成服務(wù)提供者需要落實(shí)信息安全主體責(zé)任,規(guī)范相關(guān)技術(shù)發(fā)展,對(duì)“具有輿論屬性或者社會(huì)動(dòng)員能力”的深度合成技術(shù)進(jìn)行事前“備案和變更、注銷備案手續(xù)”“開展安全評(píng)估”等事前風(fēng)險(xiǎn)監(jiān)管。
我國(guó)現(xiàn)階段所采取的立法進(jìn)路可以較好地應(yīng)對(duì)人工智能立法所帶來的問題。因此,我國(guó)目前應(yīng)不急于制定統(tǒng)一的人工智能法。誠然,快速制定人工智能法可以帶來一些收益,例如可以發(fā)揮法律的表達(dá)功能(express function),在國(guó)際制度規(guī)則競(jìng)爭(zhēng)中吸引注意力,甚至可能解決目前人工智能發(fā)展中的一些制度性制約,促進(jìn)人工智能發(fā)展。但以往經(jīng)驗(yàn)和我國(guó)的立法實(shí)踐表明,一旦進(jìn)行全方位的綜合性立法,相關(guān)立法就很可能會(huì)變成監(jiān)管性立法。從立法時(shí)機(jī)來看,這意味著人工智能法的立法不能操之過急。通過小切口的立法來對(duì)人工智能的某些特定風(fēng)險(xiǎn)進(jìn)行規(guī)制,同時(shí)為人工智能提供發(fā)展與探索空間,是我國(guó)目前甚至是未來一段時(shí)間內(nèi)的最優(yōu)選擇。
(二)未來我國(guó)人工智能法的設(shè)計(jì)
待時(shí)機(jī)成熟后,我國(guó)的人工智能法可以在立法價(jià)值、公法規(guī)制、私法責(zé)任三個(gè)方面進(jìn)行制度設(shè)計(jì):
1.立法價(jià)值
在立法價(jià)值方面,我國(guó)人工智能立法應(yīng)注重人工智能的國(guó)內(nèi)與國(guó)際協(xié)調(diào)、硬實(shí)力與軟實(shí)力協(xié)調(diào),提出既符合我國(guó)人工智能發(fā)展又能影響甚至引領(lǐng)全球人工智能立法的中國(guó)方案。正如前文所述,各國(guó)人工智能立法都面臨復(fù)雜辯證關(guān)系:發(fā)展與安全的辯證、各國(guó)的特殊國(guó)情與國(guó)際影響力的辯證。我國(guó)人工智能立法同樣面臨此類問題,解決此類問題沒有簡(jiǎn)單的靈丹妙藥。唯一的方案只能是既深入剖析我國(guó)人工智能的發(fā)展現(xiàn)狀和價(jià)值體系,深入分析域外人工智能的發(fā)展格局與全球價(jià)值體系之爭(zhēng),在此基礎(chǔ)上通過平等合作的多邊主義將我國(guó)人工智能立法方案推向國(guó)際舞臺(tái),塑造全球人工智能立法的“最大公約數(shù)”。
具體而言,我國(guó)人工智能法應(yīng)當(dāng)在價(jià)值層面反對(duì)美國(guó)的霸權(quán)主義與歐盟的優(yōu)越主義,但認(rèn)同美國(guó)的發(fā)展主義與歐盟的弱勢(shì)群體保護(hù)立場(chǎng)。正如前文所指出的,美國(guó)聯(lián)邦層面的人工智能立法將重心放在針對(duì)中國(guó)等國(guó)家的出口管制上,這種霸權(quán)主義和冷戰(zhàn)思維不僅對(duì)我國(guó)造成損害,對(duì)于美國(guó)自身也未必有利。但美國(guó)人工智能立法中所體現(xiàn)的發(fā)展立場(chǎng)與我國(guó)的價(jià)值取向則有相似性。而歐盟的人工智能立法則反映其一貫的優(yōu)越性立場(chǎng),這種立場(chǎng)并不符合當(dāng)今世界的多極化趨勢(shì),也不符合我國(guó)價(jià)值觀體系中的平等、多邊主義的價(jià)值立場(chǎng)。不過,歐盟立法中對(duì)于弱勢(shì)群體保護(hù)的立場(chǎng)則與我國(guó)的價(jià)值觀具有重疊性。在價(jià)值層面,我國(guó)未來的人工智能立法應(yīng)當(dāng)既體現(xiàn)國(guó)家對(duì)新質(zhì)生產(chǎn)力和先進(jìn)生產(chǎn)力的支持,強(qiáng)調(diào)人工智能發(fā)展造福人民的潛力;同時(shí)又應(yīng)當(dāng)體現(xiàn)公平、平等與弱勢(shì)群體保護(hù)理念,超越美歐將反歧視等同于公平、平等的價(jià)值觀。
2.公法規(guī)制
在公法規(guī)制層面,我國(guó)人工智能立法應(yīng)當(dāng)區(qū)分國(guó)家安全、重大公共安全、一般公共安全與非公共安全問題。首先對(duì)于國(guó)家安全,人工智能立法不宜進(jìn)行過多規(guī)定,其原因并非國(guó)家安全并不重要,而是因?yàn)槲覈?guó)的國(guó)家安全法等法律已經(jīng)對(duì)國(guó)家安全問題進(jìn)行了頂層設(shè)計(jì),且國(guó)家安全更多依賴于特定問題進(jìn)行執(zhí)法,較難通過具體法律規(guī)則進(jìn)行確定。對(duì)于亟待發(fā)展的我國(guó)人工智能產(chǎn)業(yè)而言,如果在人工智能法中涉及太多國(guó)家安全的法律規(guī)則,將會(huì)向國(guó)內(nèi)與國(guó)際傳遞過多限制發(fā)展的信號(hào),既不利于產(chǎn)業(yè)發(fā)展與國(guó)際合作,也不利于通過人工智能發(fā)展維護(hù)國(guó)家安全。
其次對(duì)于公共安全,還應(yīng)區(qū)分重大公共安全與一般公共安全。對(duì)于前者,例如對(duì)于人工智能在核能技術(shù)等領(lǐng)域可能造成的重大風(fēng)險(xiǎn),我國(guó)人工智能法可以對(duì)其進(jìn)行統(tǒng)一風(fēng)險(xiǎn)預(yù)防,確立強(qiáng)監(jiān)管的風(fēng)險(xiǎn)規(guī)制模式。在這些人工智能領(lǐng)域進(jìn)行強(qiáng)監(jiān)管,有利于提振和保護(hù)公眾對(duì)于人工智能發(fā)展的信心,確立我國(guó)發(fā)展可信、安全的人工智能的國(guó)際形象。而對(duì)于一般的公共安全,例如自動(dòng)駕駛、無人小型飛行器、醫(yī)療器械、生成式人工智能,我國(guó)人工智能法則應(yīng)當(dāng)采取場(chǎng)景化的監(jiān)管進(jìn)路,注重行業(yè)與企業(yè)自我監(jiān)管,有限授權(quán)不同的部門、行業(yè)主管機(jī)構(gòu)對(duì)此類風(fēng)險(xiǎn)進(jìn)行監(jiān)管并建立部門監(jiān)管的違法審查機(jī)制,嚴(yán)防人工智能監(jiān)管中的部門利益、官僚主義、形式主義。
最后對(duì)于非公共安全,我國(guó)人工智能立法應(yīng)避免事前規(guī)制,應(yīng)利用侵權(quán)法等制度進(jìn)行事后救濟(jì)。誠然,對(duì)于何謂非公共安全,本身并無完全確定性的標(biāo)準(zhǔn),公共安全與非公共安全的邊界很大程度取決于具體行業(yè)與領(lǐng)域的監(jiān)管機(jī)構(gòu)所設(shè)置的安全標(biāo)準(zhǔn)。不過,區(qū)分非公共安全仍然有重要意義。目前,很多廣義違法行為具有顯著的非公共安全特征,例如人工智能所造成的侵犯知識(shí)產(chǎn)權(quán)、誹謗言論,而有的部門在制定相關(guān)規(guī)定時(shí),將此類侵權(quán)行為與造成公共安全的違法行為并列,對(duì)這些行為一體適用事前規(guī)制。此類做法違反了風(fēng)險(xiǎn)規(guī)制的一般原理,應(yīng)當(dāng)予以糾正。對(duì)于非公共安全的侵權(quán)行為,應(yīng)當(dāng)通過侵權(quán)法等事后救濟(jì)的法律加以規(guī)制,而非通過風(fēng)險(xiǎn)規(guī)制對(duì)其施加過高的市場(chǎng)準(zhǔn)入門檻。
此外,還需要注意,我國(guó)人工智能立法對(duì)人工智能造成的一般公共安全應(yīng)當(dāng)以實(shí)際風(fēng)險(xiǎn)為指引,適度照顧公眾的感知風(fēng)險(xiǎn),避免零風(fēng)險(xiǎn)的風(fēng)險(xiǎn)監(jiān)管。當(dāng)人工智能應(yīng)用在公共安全風(fēng)險(xiǎn)的事故概率上低于人類,此時(shí)人工智能發(fā)展與應(yīng)用就會(huì)給社會(huì)帶來福利。不過,由于民眾往往出于自身的風(fēng)險(xiǎn)認(rèn)知來“感覺”相關(guān)風(fēng)險(xiǎn),且容易受到輿論媒體、熱點(diǎn)事件的影響,常常對(duì)于人工智能安全有一些不切實(shí)際的期待。就此而言,人工智能的風(fēng)險(xiǎn)監(jiān)管既應(yīng)當(dāng)立足科學(xué)與概率統(tǒng)計(jì)意義上的“安全”,又應(yīng)當(dāng)照顧到民眾的風(fēng)險(xiǎn)感知與“安全感”,應(yīng)當(dāng)以政府、行業(yè)、專家等理性聲音引導(dǎo)下民眾可接受的風(fēng)險(xiǎn)作為判斷依據(jù)。例如,當(dāng)自動(dòng)駕駛汽車在概率統(tǒng)計(jì)上達(dá)到人類駕駛汽車兩倍或更高安全程度,如果此時(shí)民眾在理性聲音影響下能夠基本接受此類風(fēng)險(xiǎn)級(jí)別,則此時(shí)應(yīng)當(dāng)允許自動(dòng)駕駛汽車進(jìn)入銷售市場(chǎng)。而且,當(dāng)自動(dòng)駕駛汽車發(fā)生事故時(shí),此時(shí)受害者可以要求自動(dòng)駕駛企業(yè)通過保險(xiǎn)等方式給予賠償,但不能以此為由對(duì)自動(dòng)駕駛汽車進(jìn)行行政處罰或禁止市場(chǎng)準(zhǔn)入。
3.私法責(zé)任
在私法責(zé)任層面,我國(guó)人工智能立法應(yīng)當(dāng)以現(xiàn)行侵權(quán)法與產(chǎn)品責(zé)任法為基礎(chǔ),不宜過于急切或激進(jìn)創(chuàng)設(shè)新制度。
首先對(duì)于產(chǎn)品構(gòu)成類的人工智能系統(tǒng),例如內(nèi)嵌了人工智能的醫(yī)療器械、汽車、玩具等,如果此類產(chǎn)品造成了侵權(quán)事件,我國(guó)人工智能法應(yīng)當(dāng)對(duì)醫(yī)療器械、汽車、玩具等傳統(tǒng)產(chǎn)品的終端制造者適用產(chǎn)品責(zé)任,對(duì)人工智能系統(tǒng)的提供者適用合同責(zé)任與過錯(cuò)侵權(quán)責(zé)任。其次,對(duì)于輔助決策類的人工智能系統(tǒng),例如商業(yè)場(chǎng)景下的個(gè)性化推薦算法、勞動(dòng)招聘中的簡(jiǎn)歷篩選人工智能系統(tǒng),我國(guó)人工智能法應(yīng)對(duì)此類侵權(quán)中的人工智能的應(yīng)用者或部署者適用消費(fèi)者保護(hù)法責(zé)任或雇主責(zé)任。對(duì)于此類輔助決策類的人工智能系統(tǒng)提供者,也應(yīng)對(duì)其適用合同責(zé)任與過錯(cuò)侵權(quán)責(zé)任。最后,對(duì)于生成式人工智能和大模型的提供者,我國(guó)人工智能法應(yīng)結(jié)合平臺(tái)責(zé)任、出版商責(zé)任與發(fā)言者責(zé)任對(duì)其侵權(quán)責(zé)任進(jìn)行多重分析。生成式人工智能和大模型兼具網(wǎng)絡(luò)平臺(tái)、出版商、發(fā)言者多重角色,其侵權(quán)責(zé)任應(yīng)當(dāng)通過現(xiàn)行法律進(jìn)行綜合分析。
我國(guó)人工智能法還可以對(duì)某些領(lǐng)域的人工智能侵權(quán)創(chuàng)設(shè)新的制度。不過,在此之前,人工智能的私法制度應(yīng)當(dāng)注重司法個(gè)案的規(guī)則創(chuàng)設(shè)。正如前文所述,人工智能的應(yīng)用場(chǎng)景多元復(fù)雜,人工智能技術(shù)的發(fā)展日新月異。對(duì)于此類侵權(quán),充分發(fā)揮侵權(quán)法的個(gè)案功能,可以更好地讓法律規(guī)則適應(yīng)現(xiàn)實(shí)世界,實(shí)現(xiàn)法律制度的可預(yù)期性。正如法理學(xué)的研究所表明的,在復(fù)雜多元與快速變化的場(chǎng)景下,基于司法與案例的自下而上的規(guī)則制定往往比自上而下的規(guī)則制定更具有可預(yù)期性,因?yàn)樵诖祟悎?chǎng)景中,個(gè)案中的當(dāng)事人和裁決者往往具有更為及時(shí)和充分的信息,更能對(duì)各方當(dāng)事人的過錯(cuò)與責(zé)任作出更合理的判斷。當(dāng)此類個(gè)案中的裁判呈現(xiàn)一定的共識(shí)性規(guī)則或潛在的共識(shí)性規(guī)則,則可以將其納入人工智能法,或者暫時(shí)先將其上升為司法解釋,實(shí)現(xiàn)自下而上的裁判指引。
結(jié)語
不同于網(wǎng)絡(luò)平臺(tái)的避風(fēng)港規(guī)則、個(gè)人信息保護(hù)法,全球的人工智能立法遠(yuǎn)未呈現(xiàn)大致共識(shí),未來我國(guó)與世界其他國(guó)家和地區(qū)的立法何去何從,也仍然是一個(gè)開放性的選項(xiàng)。由于全球人工智能立法面臨的相似性問題以及人工智能領(lǐng)域面臨的全球競(jìng)爭(zhēng)與協(xié)調(diào),本文從比較法的角度對(duì)這一議題進(jìn)行分析,指出美國(guó)與歐盟在人工智能立法上采取了表面相似、實(shí)際迥異的立法模式。其中美國(guó)采取了市場(chǎng)主導(dǎo)、分部門、分領(lǐng)域的立法進(jìn)路,其在聯(lián)邦層面注重對(duì)政府機(jī)構(gòu)應(yīng)用人工智能進(jìn)行規(guī)范,對(duì)私營(yíng)企業(yè)則采取企業(yè)自我規(guī)制的進(jìn)路,利用已有的消費(fèi)者保護(hù)法、民權(quán)法案對(duì)其進(jìn)行有限監(jiān)管。而歐盟則采取了人工智能統(tǒng)一規(guī)制的立法進(jìn)路,對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行統(tǒng)一分級(jí)規(guī)制,將人工智能系統(tǒng)納入產(chǎn)品責(zé)任法的范疇。面對(duì)美歐以及世界其他各國(guó)的人工智能立法,我國(guó)亟需找到符合自身國(guó)情,同時(shí)具有最大國(guó)際公約數(shù)和國(guó)際領(lǐng)導(dǎo)力的人工智能立法方案。
具體而言,我國(guó)目前仍然應(yīng)當(dāng)注重部門性、行業(yè)化、場(chǎng)景性的小切口立法,在未來時(shí)機(jī)成熟時(shí)再制定統(tǒng)一與綜合性的人工智能法。對(duì)于我國(guó)未來的人工智能法,其立法價(jià)值層面應(yīng)體現(xiàn)促進(jìn)發(fā)展、開放合作、平等共享的價(jià)值理念,反對(duì)美國(guó)的現(xiàn)實(shí)霸權(quán)主義與歐盟的價(jià)值優(yōu)越主義。在公法規(guī)制層面,我國(guó)人工智能法可以以風(fēng)險(xiǎn)規(guī)制作為重心,不過,人工智能立法應(yīng)當(dāng)區(qū)分國(guó)家安全、重大公共安全、一般公共安全與非公共安全問題。我國(guó)人工智能法不宜過多規(guī)定國(guó)家安全條款,對(duì)重大公共安全風(fēng)險(xiǎn)應(yīng)設(shè)定強(qiáng)制性規(guī)范,對(duì)一般公共安全則可以授權(quán)部門與行業(yè)主管機(jī)構(gòu)進(jìn)行立法,但對(duì)其權(quán)限進(jìn)行法律控制,同時(shí)要求其尊重行業(yè)自治規(guī)范,對(duì)非公共安全則應(yīng)當(dāng)避免事前規(guī)制。對(duì)于私法責(zé)任制度,我國(guó)人工智能法可以將有關(guān)人工智能侵權(quán)的特殊規(guī)則上升為立法。不過,在此之前,我國(guó)應(yīng)當(dāng)以現(xiàn)行侵權(quán)法與產(chǎn)品責(zé)任法為基礎(chǔ),在司法中充分積累人工智能侵權(quán)的具體案例。綜合而言,我國(guó)的人工智能立法需要保持戰(zhàn)略耐心,既為人工智能產(chǎn)業(yè)與技術(shù)的發(fā)展提供探索空間,又為未來的人工智能綜合性立法提供學(xué)術(shù)與經(jīng)驗(yàn)支撐。
原文刊載于《比較法研究》2024年第4期,感謝微信公眾號(hào)“ 比較法研究”授權(quán)轉(zhuǎn)載。