国产黄在线观看免费观看软件,欧美日韩在线一区,AV无码久久不卡,99热精品免费观看全部,wwwxxxx日本,国产91香蕉久久久久久,亚洲国产精品日韩色

當(dāng)前位置:首頁 > 文獻(xiàn)資源 > 論文著作 > 理論推演
趙精武|人工智能科技倫理審查制度的體系化建構(gòu)
2025年04月07日 【作者】趙精武 預(yù)覽:

【作者】趙精武

【內(nèi)容提要】

人工智能科技倫理審查制度的體系化建構(gòu)





趙精武 北京航空航天大學(xué)法學(xué)院副教授、北京科技創(chuàng)新中心研究基地副主任







摘要:目前我國科技倫理審查實踐存在審查形式化、虛置化等現(xiàn)實問題,并且科技倫理治理固有的軟治理特征也使得該制度難以實現(xiàn)預(yù)期的制度目標(biāo)。實踐中倫理失控風(fēng)險主要表現(xiàn)為既有的科技倫理審查制度難以有效控制人工智能科技倫理風(fēng)險,造成這一現(xiàn)象的根源在于未能明確人工智能科技倫理審查制度的功能定位,導(dǎo)致在審查范圍、審查標(biāo)準(zhǔn)、審查程序等方面存在模糊性問題。該審查制度雖然屬于典型的風(fēng)險治理范式,但其以非強(qiáng)制性的社會倫理規(guī)范為制度基礎(chǔ),審查結(jié)果屬于倫理道德層面的判斷,其性質(zhì)屬于科技創(chuàng)新活動的合理性審查?;诖朔N定位,應(yīng)當(dāng)適當(dāng)區(qū)分科技倫理委員會與科技倫理審查委員會的定位差異,僅限于涉及敏感研究領(lǐng)域才強(qiáng)制要求被審查對象組建科技倫理審查委員會,并將審查結(jié)果與安全風(fēng)險評估結(jié)果一并作為采取特定治理措施的風(fēng)險依據(jù)。

關(guān)鍵詞:科技倫理審查;科技倫理風(fēng)險;合理審查





一、 問題的提出:人工智能科技倫理的失控風(fēng)險

在武漢市蘿卜快跑之后,人工智能治理難題不僅僅表現(xiàn)為如何確保技術(shù)應(yīng)用的安全可靠,還表現(xiàn)為自動駕駛在遭遇緊急情況時究竟如何做出利害選擇等科技倫理爭議。在國外,14歲少年因過度迷戀人工智能虛擬陪伴者而選擇自殺,也被國外媒體稱之為首例AI聊天致死案。這類科技倫理風(fēng)險威脅到人類主體地位、人格尊嚴(yán)以及既有道德規(guī)范體系,尤其是人工智能技術(shù)被應(yīng)用于就業(yè)市場、社會信譽(yù)評估、投保等領(lǐng)域,必然沖擊社會公正等基本道德觀念。

科技倫理風(fēng)險問題早在生物醫(yī)藥領(lǐng)域就備受關(guān)注,并形成了科技倫理審查制度的基本框架。但是,人工智能的躍進(jìn)式發(fā)展必將對既有的科技倫理審查制度產(chǎn)生沖擊:一方面,審查目標(biāo)有所變化。傳統(tǒng)生物醫(yī)療領(lǐng)域的科技倫理審查制度是以更為迫切的人類生命健康保護(hù)為目標(biāo),而人工智能領(lǐng)域的科技倫理審查則是更加偏向科技創(chuàng)新、技術(shù)應(yīng)用的合理性。另一方面,既有審查模式也難以繼續(xù)沿用。傳統(tǒng)生物醫(yī)療領(lǐng)域的科技倫理審查制度是以強(qiáng)制審查為核心,而人工智能領(lǐng)域的科技倫理審查顯然并不能對涉及倫理風(fēng)險事項一概采用強(qiáng)制審查,否則這將成為科技創(chuàng)新的巨大制度障礙??陀^而言,人工智能創(chuàng)新應(yīng)用的科技倫理風(fēng)險屬于科技創(chuàng)新過程失控風(fēng)險,故需要經(jīng)由科技倫理審查施加必要的限制,進(jìn)而協(xié)調(diào)促進(jìn)科技創(chuàng)新和控制科技倫理風(fēng)險這兩種不同的治理目標(biāo)。

實際上,科技倫理審查制度實屬制度舶來品,其最初目的是終止各種不道德、不合理的生命醫(yī)學(xué)類的科研活動。例如,《紐倫堡法典》《赫爾辛基宣言》是為了終止以人類為試驗對象的科學(xué)實驗;美國國立衛(wèi)生研究院(National Institutes of HealthNIH)發(fā)布科研指南,用以確保科學(xué)實驗善待動物。而我國科技倫理審查制度的確立可追溯至《藥物臨床試驗質(zhì)量管理規(guī)范》,目的同樣是確保受試者的權(quán)益和安全;并且后續(xù)的《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》《人類遺傳資源管理條例》等規(guī)范性文件也是圍繞生命醫(yī)學(xué)科學(xué)實驗展開。當(dāng)這種以生命安全、人格尊嚴(yán)等倫理要求為基礎(chǔ)的科技倫理審查制度拓展至人工智能等其他技術(shù)領(lǐng)域,就需要重新詮釋科技倫理審查制度的功能定位,確??萍紓惱韺彶樵谏茖W(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域遵循共通的治理邏輯。

從實踐來看,科技倫理審查制度未能充分實現(xiàn)支持者們所推崇的法律與倫理協(xié)同治理理想效果,反而呈現(xiàn)科技倫理審查形式化、流程化的問題。更棘手的問題是,科技倫理委員會的運行機(jī)制面臨著委員會日常如何運行、審查標(biāo)準(zhǔn)如何明確、審查流程如何規(guī)范、專家薪酬如何支付等現(xiàn)實障礙。雖然不少學(xué)者提出了諸多的制度完善建議,但相關(guān)研究還是缺乏對審查機(jī)制的理論剖析和實證考察??偨Y(jié)而言,人工智能科技倫理審查面臨的核心問題是,該類倫理審查的制度模式和實施模式未能與生物醫(yī)療領(lǐng)域的傳統(tǒng)制度予以區(qū)分,導(dǎo)致自身難以直接適用于人工智能技術(shù)治理領(lǐng)域。這種制度內(nèi)容的不完整性主要表現(xiàn)為審查范圍、審查標(biāo)準(zhǔn)和審查制度作用模式這三個方面的模糊性與籠統(tǒng)性。


二、人工智能科技倫理審查的功能與效果

雖然《科技倫理審查辦法(試行)》第15條第5項明確了涉及數(shù)據(jù)和算法的科技活動為重點審查內(nèi)容,但其作為一般法意義上的科技倫理審查規(guī)則,未能嚴(yán)格區(qū)分不同技術(shù)領(lǐng)域科技倫理審查模式的差異性。因此,在明確我國人工智能科技倫理審查制度建構(gòu)模式之前,有必要重新評估和明確人工智能科技倫理審查功能失靈的核心原因。

(一)我國科技倫理審查制度的實踐現(xiàn)狀:虛置化狀態(tài)

人工智能科技倫理審查制度的實際運行效果不佳,主要原因是科技倫理審查制度在實施過程中普遍存在虛置化問題,部分審查機(jī)構(gòu)流于形式、審查過程敷衍了事,導(dǎo)致倫理審查的預(yù)設(shè)目標(biāo)難以實現(xiàn)。

第一,科技倫理審查委員會的運行機(jī)制以及自身的法律性質(zhì)始終存疑?!犊萍紓惱韺彶檗k法(試行)》第4條雖然規(guī)定科研單位應(yīng)當(dāng)配備必要的工作人員、提供辦公場所、經(jīng)費等條件,用以確保委員會的獨立性,但這僅僅只能確保形式上獨立。首先,第4條規(guī)定從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位應(yīng)當(dāng)設(shè)立科技倫理(審查)委員會,并且設(shè)立前提是涉及科技倫理敏感領(lǐng)域,但其本質(zhì)上仍屬于自我約束型的倫理審查機(jī)制。即便采用外聘專家、回避機(jī)制組成委員會,但審查委員會究竟能夠在多大程度上實現(xiàn)獨立審查、獨立決策令人生疑。畢竟委員的薪酬支付、場所提供等物質(zhì)支持條件還是由被審查單位提供。這也是部分研究者一直強(qiáng)調(diào)的倫理審查委員會極易出現(xiàn)既當(dāng)裁判員又當(dāng)運動員的問題,并且根據(jù)部分學(xué)者統(tǒng)計,大部分科技機(jī)構(gòu)的倫理審查委員會在進(jìn)行審查時多次出現(xiàn)直接蓋章同意和批復(fù)的情形,使得倫理審查這項制度呈現(xiàn)出走過場的特征。

第二,科技倫理審查的弱約束效果如何通過法治化方式提高治理效果尚無定論。《科技倫理審查辦法(試行)》第1條和第9條規(guī)定了科技倫理風(fēng)險的評估和預(yù)防是科技倫理審查的立法目標(biāo),但相較于美歐等國外模式,我國的制度模式實際上是一種弱倫理審查制度,因而會導(dǎo)致科學(xué)研究通過率過高等問題。甚至追溯我國科技倫理審查制度的發(fā)展歷程,如部分學(xué)者所總結(jié)的,該制度設(shè)置之初就飽受爭議:支持者認(rèn)為科學(xué)研究不能等同于純粹的科研自由,理應(yīng)采取一定程度的外部約束;反對者則認(rèn)為這無疑會增加科研創(chuàng)新活動的經(jīng)濟(jì)成本,所謂的倫理審查委員會更容易淪為官僚主導(dǎo)的形式主義。倫理規(guī)制的基本架構(gòu)是以行業(yè)性準(zhǔn)則、少量的抽象原則以及機(jī)構(gòu)層面的自我規(guī)制為主要內(nèi)容,這也決定了倫理規(guī)制具有典型的弱約束效果。無論是缺乏強(qiáng)制執(zhí)行力的行業(yè)性準(zhǔn)則,還是籠統(tǒng)模糊的倫理原則、自律主導(dǎo)的自我約束,均難以有效達(dá)成科技倫理風(fēng)險預(yù)防和控制的治理目標(biāo)。

第三,科技倫理審查的形式化問題是否能夠通過法律責(zé)任承擔(dān)予以解決值得商榷?!犊萍紓惱韺彶檗k法(試行)》第47、4849條規(guī)定了民事責(zé)任、行政責(zé)任和刑事責(zé)任的承擔(dān)方式。但這些法律責(zé)任的承擔(dān)往往存在著嚴(yán)格的適用條件。在民事責(zé)任方面,第47、48條規(guī)定造成財產(chǎn)損失或者其他損害的承擔(dān)民事責(zé)任,實際上屬于典型的侵權(quán)行為,即便不經(jīng)過科技倫理審查,造成財產(chǎn)損失或其他損害的,權(quán)利人依據(jù)《中華人民共和國民法典》亦可主張承擔(dān)民事責(zé)任。在行政責(zé)任方面,第48條所規(guī)定的弄虛作假、徇私舞弊等情形本質(zhì)上屬于實質(zhì)性違反要求的行為,但是無法直接適用于形式化的科技倫理審查活動。相較于不審查、虛假審查等問題,形式化審查更容易弱化科技倫理審查機(jī)制的實際效果。由于《科技倫理審查辦法(試行)》本身屬于試行辦法,且本質(zhì)上屬于一般性規(guī)定,倫理審查形式化問題可能更需要后續(xù)設(shè)置生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域?qū)傩缘目萍紓惱韺彶橐?guī)則予以解決。

(二)人工智能科技倫理審查的特殊性

人工智能科技創(chuàng)新對于倫理審查制度最直接的影響便是審查范圍、審查標(biāo)準(zhǔn)以及審查方式發(fā)生異化。過寬或過窄的審查范圍均會使得科技倫理審查成為人工智能科技創(chuàng)新的制度負(fù)擔(dān)。尤其是科技倫理本身作為社會倫理規(guī)范的一種,缺乏強(qiáng)制性,審查制度反而更容易置于走過場的尷尬地位。

在審查范圍方面,存在法律風(fēng)險與科技倫理風(fēng)險混同的誤區(qū)。在部分學(xué)者看來,人工智能技術(shù)應(yīng)用所帶來的倫理問題包括失業(yè)率上升、自動駕駛系統(tǒng)決策倫理風(fēng)險和人工智能主體意識對人類的挑戰(zhàn)等,原因在于治理責(zé)任模糊和治理結(jié)果不公正。同時,部分學(xué)者則將新興技術(shù)倫理風(fēng)險表現(xiàn)樣態(tài)與法律風(fēng)險、技術(shù)安全問題整合,總結(jié)為技術(shù)安全性問題、個人權(quán)益受侵犯問題、社會公平問題、生態(tài)系統(tǒng)受威脅問題。這些觀點不無道理,但問題在于,倘若構(gòu)成侵犯個人信息權(quán)益、存在法律責(zé)任界定不明等問題時,完全可以通過適用法律規(guī)范予以解決,何必再設(shè)置冗余的科技倫理審查制度進(jìn)行重復(fù)評估?這種法律問題倫理化的傾向也使得科技倫理審查制度本身被視為一種純粹道德意義上的倫理規(guī)范機(jī)制。因此,需要澄清的是,盡管科技倫理不可避免地涉及個人權(quán)益的保護(hù)問題,但這里的個人權(quán)益更多地表現(xiàn)為一種抽象層面的法益。在倫理學(xué)與法學(xué)交叉視角下,人工智能技術(shù)應(yīng)用侵害何種性質(zhì)的法益存有疑義。以實踐中利用人工智能技術(shù)復(fù)活死者為例:在法學(xué)視角下,未經(jīng)近親屬同意,這種應(yīng)用可能構(gòu)成對個人信息、肖像權(quán)等具體權(quán)利的侵害;在倫理學(xué)視角下,未經(jīng)近親屬同意,這種應(yīng)用損害的是近親屬對于逝者的懷念、不想被打擾等情感層面的利益。無論是生命醫(yī)學(xué)領(lǐng)域的科技倫理,還是人工智能領(lǐng)域的科技倫理,均強(qiáng)調(diào)對人類主體地位的維護(hù)。科技創(chuàng)新活動不應(yīng)當(dāng)將人類作為技術(shù)規(guī)訓(xùn)的對象,科技倫理存在的目的也是避免過度追求科研自由而忽視人類主體尊嚴(yán)的情況出現(xiàn)?!吨腥A人民共和國民法典》第990條作為《中華人民共和國憲法》第33條第3尊重和保障人權(quán)的轉(zhuǎn)介條款,其規(guī)定的人格尊嚴(yán)具有典型的倫理意義,而這恰恰能夠作為科技倫理與法律規(guī)范相對區(qū)隔的重要因素。因此,若以科技倫理審查為導(dǎo)向,人工智能科技倫理的基本范疇可以劃定為涉及科技創(chuàng)新應(yīng)當(dāng)維護(hù)人類主體地位和人格尊嚴(yán)的倫理規(guī)范。

在審查標(biāo)準(zhǔn)方面,科技倫理本身并不是一個內(nèi)涵和外延相當(dāng)明確的概念,不同審查主體所遵循的倫理審查標(biāo)準(zhǔn)難以統(tǒng)一。從國內(nèi)外科技倫理標(biāo)準(zhǔn)的差異現(xiàn)狀來看,科技倫理標(biāo)準(zhǔn)化似乎是一個無解的問題:科技倫理本身就是一個不確定性的法律概念,其受到社會實踐、科技發(fā)展、國家民族文化等諸多因素影響,還會隨著時代發(fā)展產(chǎn)生新的意涵,科技倫理根本無法實現(xiàn)標(biāo)準(zhǔn)化。同時,即便立法機(jī)構(gòu)明確了統(tǒng)一的科技倫理標(biāo)準(zhǔn),并就此解決了制定主體資格問題,但立法機(jī)構(gòu)所采用的倫理標(biāo)準(zhǔn)依舊難以完全避免受到參與立法過程的專家們主觀意見的影響。然而,這個無解問題并不意味著只能暫時擱置,而是其本身就存在邏輯悖論:既然科技倫理屬于人類倫理道德范疇,而人類倫理道德本身從來都不是標(biāo)準(zhǔn)化的,科技倫理又怎么可能存在客觀化標(biāo)準(zhǔn)?進(jìn)一步而言,既然該無解問題本身就是一個錯誤命題,那么科技倫理審查所依賴的倫理評判標(biāo)準(zhǔn)又應(yīng)當(dāng)如何確定呢?回歸到科技倫理治理目標(biāo)層面,無論是科技倫理審查,還是其他的科技倫理治理機(jī)制,其核心目的均是解決科技倫理風(fēng)險問題。這種風(fēng)險治理的內(nèi)在邏輯并不是通過嚴(yán)格意義上的倫理評判標(biāo)準(zhǔn)預(yù)防和控制風(fēng)險事件,而是側(cè)重是否能夠識別出潛在的科技倫理風(fēng)險以及采取必要的預(yù)防措施。換言之,即便采用的倫理審查評斷標(biāo)準(zhǔn)各不相同,但是只要這些倫理審查標(biāo)準(zhǔn)屬于科技倫理的基本范疇,那么最后的治理效果并無實質(zhì)差異。

在審查作用機(jī)制方面,構(gòu)建科技倫理相關(guān)的制度規(guī)范以實現(xiàn)相應(yīng)的治理目標(biāo)等類似主張混淆了法律治理與倫理治理的作用機(jī)制。法律治理通過義務(wù)性條款作用于科研創(chuàng)新行為,而科技倫理審查則是作用于科研人員的倫理觀念,并內(nèi)化為科技創(chuàng)新活動的自我約束準(zhǔn)則。兩者在治理體系中互為補(bǔ)充的實踐方式應(yīng)當(dāng)是主體與行為的治理邏輯銜接,而不是行為與行為的雙重約束。相應(yīng)地,基于這種作用機(jī)制,科技倫理審查機(jī)制的功能定位也會發(fā)生相應(yīng)的變化。具體而言,科技倫理審查主要面向的是科技創(chuàng)新研發(fā)和應(yīng)用,確保相關(guān)技術(shù)服務(wù)和產(chǎn)品的設(shè)計、生產(chǎn)和銷售符合科技倫理;科研人員科技倫理培訓(xùn)則是融入科技工作者的教育經(jīng)歷和工作經(jīng)歷,推動科研人員形成尊重人格尊嚴(yán)的倫理觀念;科技倫理商談則是為了補(bǔ)足科技倫理模糊性內(nèi)容,以社會公眾網(wǎng)絡(luò)評論、科研專家技術(shù)解釋等方式,以商談的形式促成符合社會共識的科技倫理觀念形成。因此,在制度建構(gòu)過程中,不宜將科技倫理審查的作用機(jī)制理解為寬泛意義上的科技倫理規(guī)范適用。

(三)人工智能科技倫理審查的功能再調(diào)整

言及科技倫理審查,必談及歐美等國的域外制度。與我國精細(xì)化法治模式相比,歐美等國因為更加側(cè)重科技自由和促進(jìn)創(chuàng)新,故而選擇通過科技倫理規(guī)范實現(xiàn)軟法治理,提供更為靈活和原則性的監(jiān)管要求。如英國上議院發(fā)布的《人工智能在英國:充分準(zhǔn)備、意愿積極、能力凸顯?》(Artificial Intelligence Select Committees Report on AI in the UKReadyWilling and Able?)將人工智能科技倫理解釋為服務(wù)于人類共同利益和價值”“遵循可理解性和公平性原則”“不能被應(yīng)用于削弱個人、家庭和社區(qū)的數(shù)據(jù)權(quán)利或隱私以及不應(yīng)當(dāng)被賦予任何損害、毀滅或欺騙人類的自主能力四個方面。歐盟委員會人工智能高級專家組(AL HLEG)在《人工智能道德倫理準(zhǔn)則》(AI Ethics Guidelines)提出的倫理目標(biāo)是在發(fā)展、配置和使用人工智能時應(yīng)當(dāng)尊重基本權(quán)利、基本原則和基本價值。新加坡個人數(shù)據(jù)保護(hù)委員會在其發(fā)布的兩版《人工智能監(jiān)管框架范例》(Model AI Governance Framework)中提及內(nèi)部監(jiān)管、人工智能應(yīng)用決策時人工干預(yù)程度、運營管理、利益相關(guān)方互動與溝通四個方面的倫理規(guī)則。不難發(fā)現(xiàn),國外人工智能科技倫理標(biāo)準(zhǔn)在保障人類主體地位和人格尊嚴(yán)方面具有共通性,但由于受到本土文化影響,人工智能科技倫理標(biāo)準(zhǔn)難以達(dá)成統(tǒng)一。

此外,負(fù)責(zé)任的研究與創(chuàng)新Responsible Innovation/Responsible Research and InnovationRRI)逐漸成為歐美等國在科技倫理層面的普遍共識。這一觀念的基本內(nèi)涵被解釋為綜合倫理上的可接受程度、發(fā)展的可持續(xù)性、社會滿意度等因素的全面考慮,實現(xiàn)科研人員、政府、社會公眾等主體相互尊重、信息透明、產(chǎn)品市場化的創(chuàng)新過程。歐盟委員會在《加強(qiáng)負(fù)責(zé)任研究與創(chuàng)新的選擇:關(guān)于負(fù)責(zé)任研究與創(chuàng)新最新專家組報告(2013)》(Options for strengthening responsible research and innovationReport of the Expert Group on the State of Art in Europe onResponsible Research and Innovation)中指出負(fù)責(zé)任的創(chuàng)新是使得受影響的利益相關(guān)方在創(chuàng)新初期就參與進(jìn)來,具體包括是否能夠了解其行動后果和所面臨選擇范圍的影響”“有效評估涉及社會需求和道德價值的結(jié)果和選擇以及將前兩個要素作為新型研究、產(chǎn)品和服務(wù)設(shè)計與開發(fā)的功能性需求。在國外學(xué)者看來,負(fù)責(zé)任的研究與創(chuàng)新是一個科學(xué)政策框架,囊括了公眾參與、性別平等、科學(xué)教育、倫理和治理等多方面內(nèi)容,其核心目標(biāo)是將純粹的科技創(chuàng)新解釋為科研人員與受影響的社會群體相關(guān)互動的創(chuàng)新活動,以此實現(xiàn)創(chuàng)新的可接受性、可持續(xù)性和社會價值。一方面,借由科研人員與社會公眾的互動對話形成符合新興技術(shù)的科技倫理觀念;另一方面,將科技倫理觀念以外部監(jiān)督、內(nèi)部自律的方式作用于科研人員本身,促使其在設(shè)計、研發(fā)和生產(chǎn)過程中,自覺地將科技倫理嵌入至創(chuàng)新活動中。

學(xué)界部分觀點傾向于借鑒國外制度模式,但忽視了國外科技倫理審查與本國制度體系的內(nèi)在沖突,導(dǎo)致其難以在國內(nèi)監(jiān)管實踐中發(fā)揮相同水平的治理作用。更重要的是,國外的科技倫理審查制度主要還是適用于生命科學(xué)、醫(yī)學(xué)等領(lǐng)域,在人工智能領(lǐng)域的延伸適用實際上仍然處于發(fā)展階段。以英國為例,在醫(yī)學(xué)領(lǐng)域,其科技倫理審查已經(jīng)形成較為成熟的三層架構(gòu):第一層是由衛(wèi)健委在2007年成立的全國倫理研究服務(wù)機(jī)構(gòu)(NRES)進(jìn)行全國范圍內(nèi)的倫理審查制度統(tǒng)籌規(guī)范;第二層是英國地方衛(wèi)生行政機(jī)構(gòu)建立的區(qū)域倫理委員會,針對本地區(qū)內(nèi)非藥物臨床試驗以及患者參與的藥物臨床試驗開展倫理審查;第三層是高校、醫(yī)院等機(jī)構(gòu)自行設(shè)立的機(jī)構(gòu)倫理委員會,負(fù)責(zé)內(nèi)部的科技倫理審查。故而也有學(xué)者將之歸結(jié)為分級分類的倫理委員會管理模式。在人工智能領(lǐng)域,英國數(shù)據(jù)倫理和創(chuàng)新中心(CDEI)與人工智能辦公室(OAI)主導(dǎo)引領(lǐng)科技倫理治理工作,CDEI將人工智能倫理界定為一整套價值觀、原則和技術(shù),采用廣泛接受的標(biāo)準(zhǔn)來指導(dǎo)人工智能系統(tǒng)開發(fā)和使用中的道德行為。在倫理審查標(biāo)準(zhǔn)層面,英國人工智能辦公室和政府?dāng)?shù)字服務(wù)局在2019年發(fā)布的《理解人工智能的倫理和安全》(Understanding artificial intelligence ethics and safety)提出SUM價值觀和FAST倫理原則,前者建構(gòu)了諸如人文關(guān)懷等人工智能倫理詞匯體系,后者則是提出了更為具體的人工智能項目社會影響、可持續(xù)性的評估辦法。由此看來,英國模式同其他歐洲國家一樣,依靠更加靈活的產(chǎn)業(yè)政策適配科技倫理治理的非強(qiáng)制性,并未選擇通過成文法的方式建構(gòu)人工智能科技倫理審查標(biāo)準(zhǔn)。

將始于醫(yī)學(xué)領(lǐng)域的科技倫理審查制度適用于人工智能領(lǐng)域并不是簡單的制度套用。誠然,這些領(lǐng)域的科技倫理風(fēng)險具有同質(zhì)性特征,但是相較于人工智能而言,生命醫(yī)學(xué)領(lǐng)域的科技倫理審查更加偏重對人類生命健康的保護(hù),這種差異性也決定了當(dāng)下人工智能立法需要重新明確設(shè)置科技倫理審查制度的立法目的是什么。一方面,通說是將科技倫理審查視為法律、市場、倫理等治理工具彼此銜接的核心制度工具,但如果將科技倫理審查事項限定在權(quán)利侵害等法律風(fēng)險方面,反而使得兩種治理工具之間的差異性被淡化。另一方面,科技倫理審查的功能定位直接決定具體的制度和程序,現(xiàn)有研究卻始終跳過這一基礎(chǔ)問題的回答,前提依據(jù)的模糊性必然會導(dǎo)致后續(xù)的制度建構(gòu)缺乏正當(dāng)性基礎(chǔ),而這也是部分學(xué)者習(xí)慣性地將生命醫(yī)學(xué)領(lǐng)域的科技倫理審查套用在人工智能領(lǐng)域的根源之一。

三、人工智能科技倫理審查制度的功能定位

基于人工智能科技倫理審查的功能缺失及其疏解方向研究,顯然需要重新明確人工智能科技倫理審查的制度功能,進(jìn)而作為倫理審查制度建構(gòu)的價值指引和理論基礎(chǔ)。

(一)風(fēng)險識別功能

雖然預(yù)防和控制科技倫理風(fēng)險是人工智能科技倫理機(jī)制的基礎(chǔ)功能已成共識,但也存在將科技倫理審查和安全評估混同的主張。雖然倫理審查的最終目的是治理科技倫理風(fēng)險,但是其所遵循的內(nèi)在邏輯是判斷和識別科技倫理風(fēng)險,而不是同安全評估機(jī)制那般評估具體的風(fēng)險水平并采取相應(yīng)的風(fēng)險預(yù)防措施。將倫理審查理解為倫理風(fēng)險評估的主張顯然未能區(qū)分科技倫理風(fēng)險與法律風(fēng)險之間的差異性:科技創(chuàng)新的法律風(fēng)險主要表現(xiàn)為對具體權(quán)利的損害,科技倫理風(fēng)險則是一種抽象層面的價值損害風(fēng)險。相應(yīng)地,安全風(fēng)險評估機(jī)制、個人信息保護(hù)影響評估機(jī)制更加側(cè)重準(zhǔn)確評估是否存在違法行為、判斷權(quán)益損害程度,而倫理審查則更加側(cè)重能否發(fā)現(xiàn)和識別科技倫理風(fēng)險,并作出是或否的道德判斷結(jié)論。進(jìn)一步而言,對兩種風(fēng)險治理機(jī)制的理解混同是因為未能準(zhǔn)確理解科技倫理審查機(jī)制的最終結(jié)果??萍紓惱硎冀K是一種社會層面的倫理規(guī)范,不具備邊界分明的內(nèi)涵和外延,故而不同主體所秉持的倫理觀念會有所差異。單純由立法機(jī)構(gòu)或者監(jiān)管機(jī)構(gòu)逐一判斷和認(rèn)定某一類人工智能技術(shù)應(yīng)用是否符合科技倫理,雖然能夠解決倫理審查標(biāo)準(zhǔn)的爭議問題,但在實踐層面顯然不具有可操作性。所以,在風(fēng)險治理層面,人工智能科技倫理審查是以作出道德判斷為終點,借由倫理審查委員會從多個維度評判技術(shù)應(yīng)用是否符合科技倫理要求、是否存在被忽視的科技倫理風(fēng)險。

通常而言,風(fēng)險識別是風(fēng)險評估的前置性條件。在《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國個人信息保護(hù)法》等法律法規(guī)規(guī)定的安全風(fēng)險評估、個人信息保護(hù)影響評估等相關(guān)條款中,實際上也是將法律風(fēng)險識別作為評估的一部分事項。例如,《數(shù)據(jù)出境安全評估辦法》第8條列舉了數(shù)據(jù)出境安全評估的主要事項,其中就包括(三)出境數(shù)據(jù)的規(guī)模、范圍、種類、敏感程度,出境中和出境后遭到篡改、破壞、泄露、丟失、轉(zhuǎn)移或者被非法獲取、非法利用等的風(fēng)險等風(fēng)險識別事項。更重要的是,網(wǎng)信領(lǐng)域的安全風(fēng)險評估在評估結(jié)果層面表現(xiàn)為風(fēng)險水平的衡量,而這種風(fēng)險閾值在科技倫理審查制度領(lǐng)域并無實際意義。因為一項倫理道德的判斷結(jié)果往往是合乎或不合乎倫理道德,科技倫理風(fēng)險的判斷和治理也不依賴于風(fēng)險水平量化或風(fēng)險水平類型化??萍紓惱韺彶榈闹贫裙δ苤粦?yīng)當(dāng)是通過作出道德判斷,預(yù)防科技倫理風(fēng)險轉(zhuǎn)變?yōu)閷嶋H損害事實,同時,借由將科技倫理風(fēng)險識別和確認(rèn)結(jié)果反饋至科研人員,在工程倫理、設(shè)計倫理等倫理觀念層面產(chǎn)生反饋性影響。因此,人工智能科技倫理審查制度功能的實現(xiàn)不僅需要在審查事項、審查流程方面予以完善,還需要在審查結(jié)果反饋和整改環(huán)節(jié)予以補(bǔ)充。

德國近年來也關(guān)注到新興技術(shù)潛在的濫用風(fēng)險,德國國家科學(xué)院在2015年設(shè)立全國性的處理安全相關(guān)研究聯(lián)合委員會(Kommissionen für Ethik sicherheitsrelevanter Forschung),其設(shè)置宗旨便是制定科技倫理審查程序、倫理準(zhǔn)則以及提供相應(yīng)的審查建議。在審查環(huán)節(jié),委員會主要設(shè)計的關(guān)鍵問題包括七項,其中與科技倫理風(fēng)險相關(guān)的包括:(1)研究人員及其相關(guān)人員在研究項目中追求哪些具體目標(biāo)?(2)是否擁有必要的專業(yè)知識對研究工作的潛在風(fēng)險進(jìn)行知情評估,或者是否需要咨詢其他專業(yè)知識?(3)能夠根據(jù)當(dāng)前的實際狀況充分說明已知或可能的研究結(jié)果的收益和風(fēng)險,并在必要時相互權(quán)衡?(4)該研究工作的安全相關(guān)結(jié)果和由此產(chǎn)生的風(fēng)險是全新的,還是在之前已經(jīng)公開的研究工作基礎(chǔ)上產(chǎn)生的?從這些審查事項來看,德國的科技倫理審查在一定程度上還是更加側(cè)重對科技倫理風(fēng)險的發(fā)現(xiàn)和識別,既包括新舊科技倫理風(fēng)險的識別,也包括是否屬于特定專業(yè)領(lǐng)域的科技倫理風(fēng)險。并且,也有學(xué)者發(fā)現(xiàn),德國的安全相關(guān)倫理委員會主要職責(zé)包括通過咨詢服務(wù)和開展活動提高科研人員的敏感性加強(qiáng)研究人員獨立處理濫用其研究風(fēng)險的能力。

(二)風(fēng)險預(yù)防功能

在我國,科技倫理審查通常被視為一種整合科學(xué)技術(shù)內(nèi)外倫理規(guī)范的科研活動監(jiān)督制度。在生命醫(yī)學(xué)領(lǐng)域,該制度的核心功能是避免科學(xué)技術(shù)創(chuàng)新活動無序開展,破壞人類共識性的倫理道德底線,保障人類受試者的生命健康和實驗動物的合理對待。特別是在涉及基因?qū)嶒烆I(lǐng)域,無序的科研創(chuàng)新活動會使得人類本身處于相當(dāng)危險的狀態(tài),隨意試驗人類基因所產(chǎn)生的后果以及對未來人類生命健康的影響難以預(yù)料。這種完全失控的科技倫理風(fēng)險已經(jīng)超出社會對于科技創(chuàng)新活動的合理期待范疇,甚至?xí)a(chǎn)生諸如基因編輯武器等更為嚴(yán)峻的危險因素。所以,科技倫理審查的核心目的被部分學(xué)者歸結(jié)為新技術(shù)應(yīng)用不損害人類的生存條件和生命健康”“保障人類的切身利益和至高無上的尊嚴(yán)促進(jìn)人類社會的可持續(xù)發(fā)展。之所以實現(xiàn)此類目的需要通過科技倫理審查機(jī)制,是因為生命醫(yī)學(xué)領(lǐng)域的科技倫理風(fēng)險已經(jīng)超出了社會可接受范疇?;蚓庉嫷壬婕叭梭w試驗活動所產(chǎn)生的社會危害性往往無法通過事后責(zé)任認(rèn)定完全消除。因此,法律責(zé)任和科技倫理審查制度成為應(yīng)對此類科技倫理風(fēng)險的雙重保險科技倫理審查在事前階段通過引入生命醫(yī)學(xué)、倫理、法學(xué)等領(lǐng)域的專家進(jìn)行必要干預(yù),但因為科技倫理規(guī)范并不具有國家公權(quán)力作為執(zhí)行保障,同時也需要通過刑法等法律法規(guī)發(fā)揮威懾作用,限制科研人員因過度追求科研績效等目的從事危險的科技創(chuàng)新活動。

不過,科技倫理審查制度并沒有就此在其他所有科學(xué)創(chuàng)新領(lǐng)域進(jìn)行擴(kuò)展性適用。這是因為科技倫理審查的對象通常是涉及生命健康、人格尊嚴(yán)等相關(guān)的科技倫理風(fēng)險,其他技術(shù)領(lǐng)域的科技倫理風(fēng)險屬于社會可接受范圍,且能夠通過現(xiàn)行立法直接約束技術(shù)應(yīng)用方式。綜合考量促進(jìn)科技創(chuàng)新和保障科研自由之目的,科技倫理審查制度的實際適用范圍相當(dāng)有限。在人工智能領(lǐng)域,該制度再次受到關(guān)注并被視為人工智能技術(shù)治理體系的重要組成部分,其中的原因是人工智能技術(shù)創(chuàng)新速度遠(yuǎn)超社會預(yù)期,使得原本停留于科幻小說中才有的自主機(jī)器人的主體倫理問題開始被倫理學(xué)學(xué)者所擔(dān)憂。此外,人工智能的技術(shù)特征具有場景導(dǎo)向性和智能決策性兩類特征,其科技倫理風(fēng)險水平遠(yuǎn)超其他信息技術(shù)。場景導(dǎo)向性主要是指人工智能科技倫理風(fēng)險的產(chǎn)生往往與其應(yīng)用場景密切相關(guān),在電影文娛行業(yè),“AI換臉”“定制圖片、視頻生成等業(yè)務(wù)模式屬于正常的業(yè)務(wù)活動。但是,一旦用于重現(xiàn)死者生前音貌等領(lǐng)域,反而可能產(chǎn)生更為顯著的科技倫理風(fēng)險。智能決策性則是指人工智能技術(shù)的智能化程度越來越高,甚至可以在特定業(yè)務(wù)場景中代替人類作出較為簡單的決策活動,而這種決策活動及其影響則會產(chǎn)生不同程度的科技倫理風(fēng)險。例如,在自動駕駛領(lǐng)域,一旦發(fā)生類似電車難題的緊急情況時,信息系統(tǒng)究竟應(yīng)當(dāng)按照何種倫理標(biāo)準(zhǔn)進(jìn)行駕駛行為的決策至今仍然存在較大爭議。

與生命醫(yī)學(xué)領(lǐng)域的倫理審查相比,人工智能科技倫理審查的核心功能還表現(xiàn)為,針對不可預(yù)期的人工智能科技創(chuàng)新活動,在事前階段發(fā)現(xiàn)可能違背倫理道德、損害人格尊嚴(yán)的技術(shù)應(yīng)用方式。同時,在具體的科技倫理審查制度中,對審查委員會的知識背景設(shè)置多元化要求,如《科技倫理審查辦法(試行)》第7條提及同行專家、倫理、法律等專業(yè)背景專家組成委員會,其目的是更加準(zhǔn)確地判斷是否存在科技倫理風(fēng)險。特別是針對市場上尚未出現(xiàn)的新型人工智能技術(shù)應(yīng)用模式,其是否存在異常的科技倫理風(fēng)險往往存在一定爭議,故而需要借由科技倫理審查制度進(jìn)行科學(xué)技術(shù)、倫理學(xué)和法學(xué)層面的綜合性評判,在確保技術(shù)應(yīng)用本身不存在算法歧視、偏見等倫理風(fēng)險之外,阻止新型技術(shù)應(yīng)用方式產(chǎn)生全新的科技倫理風(fēng)險類型。

(三)科技創(chuàng)新合理性評價功能

在科技倫理審查法制化的過程中,該制度的定位更適宜理解為網(wǎng)信領(lǐng)域安全風(fēng)險評估機(jī)制、算法分級分類治理機(jī)制的前置性程序。科研機(jī)構(gòu)、科研人員是否充分開展科技倫理審查、是否嚴(yán)重違反科技倫理審查要求等行為可以作為相關(guān)義務(wù)主體是否采取必要措施保障人工智能應(yīng)用安全的判斷要素。因為倘若將是否按照要求開展科技倫理審查活動作為承擔(dān)法律責(zé)任的事實依據(jù),其直接結(jié)果便是在科研機(jī)構(gòu)、科技人員從事科技創(chuàng)新活動中增加不必要的合規(guī)負(fù)擔(dān)。并且,這也導(dǎo)致科技倫理審查與安全風(fēng)險評估機(jī)制具有相同的法律效果,義務(wù)主體反而難以區(qū)分兩種制度的實質(zhì)區(qū)別,加劇合規(guī)工作難度。但是,倘若將科技倫理審查理解為義務(wù)主體未履行人工智能應(yīng)用安全保障義務(wù)的過錯,則能夠促使義務(wù)主體充分進(jìn)行科技倫理審查,作為法律責(zé)任免除或減輕的正當(dāng)事由。此外,在邏輯關(guān)系層面,不合法的科技創(chuàng)新活動一定違背科技倫理,但不合乎科技倫理的科技創(chuàng)新不一定不合法,故而不適宜直接將科技倫理審查作為合法性判斷的制度工具。

在治理目標(biāo)層面,法律治理強(qiáng)調(diào)引導(dǎo)非法向合法的轉(zhuǎn)向,而科技倫理審查的制度目標(biāo)則是持續(xù)推動實踐逐步貼近理想的治理秩序。在部分學(xué)者看來,風(fēng)險預(yù)防審查原則更契合科技倫理審查對應(yīng)的社會公共利益,并將倫理審查框架的核心內(nèi)容解釋為損害與預(yù)期受益的對比,這種風(fēng)險收益比也是判斷科技創(chuàng)新活動是否適度和客觀的標(biāo)準(zhǔn)。這種風(fēng)險與收益的合比例性亦是一種合理性判斷,而非合法與否的判斷。倫理審查委員會的職責(zé)之一是發(fā)現(xiàn)科技倫理風(fēng)險并反饋科研機(jī)構(gòu)和科研人員,督促其人工智能應(yīng)用方式盡可能采取風(fēng)險與收益比例最小的技術(shù)應(yīng)用方案。因此,科技倫理審查的制度功能在一定程度上是推動科研機(jī)構(gòu)、科研人員在各類可選技術(shù)方案中優(yōu)先選擇更加符合人類福祉的選項。不論科技倫理審查機(jī)制以何種方式法制化,均無法擺脫其所固有的非強(qiáng)制性特征,將科技倫理審查與法律效果直接關(guān)聯(lián)只會使得治理模式之間的差異性模糊化。更重要的是,人工智能科技創(chuàng)新活動達(dá)到具有自主意識的智能化技術(shù)水平,客觀上仍然需要足夠長的時間周期,故而現(xiàn)階段的人工智能科技倫理審查主要解決的是技術(shù)應(yīng)用層面潛在的科技倫理風(fēng)險,以判斷相應(yīng)的技術(shù)應(yīng)用方式是否合理。

四、人工智能科技倫理審查制度的體系化塑造

《科技倫理審查辦法(試行)》所規(guī)定的科技倫理審查制度屬于一般法層面的倫理審查機(jī)制,為了更有效地回應(yīng)人工智能科技創(chuàng)新領(lǐng)域的倫理風(fēng)險特殊性,則需要針對當(dāng)下審查范圍、審查標(biāo)準(zhǔn)和審查作用機(jī)制的模糊性問題,對審查主體審查流程兩項關(guān)鍵制度內(nèi)容進(jìn)行細(xì)化。同時,結(jié)合人工智能科技倫理審查的風(fēng)險識別、預(yù)防、合理性判斷這三類功能,調(diào)整該項制度在整個人工智能科技治理體系中的定位,更充分地發(fā)揮科技倫理審查的實施作用。

(一)審查主體:科技倫理審查委員會的獨立性

在《科技倫理審查辦法(試行)》中,采用的是科技倫理(審查)委員會這一表述。盡管科技倫理委員會和科技倫理審查委員會僅僅只是概念指稱的差異,但從職能定位和組織機(jī)構(gòu)關(guān)系來看,更適宜將科技倫理委員會和科技倫理審查委員會予以區(qū)分??萍紓惱砦瘑T會的職能定位包括制定具體的科技倫理規(guī)范、科技倫理審查機(jī)制、科技倫理最佳實踐、提供科技倫理信息咨詢等事項。并且,基于這種職能定位的考慮,科技倫理委員會適宜采用相對固定的組成架構(gòu),用以確保內(nèi)部科技倫理規(guī)范的一致性和連貫性??萍紓惱韺彶槲瘑T會對應(yīng)的是科技倫理審查主體,為了確保倫理審查的獨立性,倫理審查委員會的組成人員應(yīng)當(dāng)具有隨機(jī)性、靈活性,以便能夠更好地針對特定領(lǐng)域的人工智能科技創(chuàng)新活動作出更為專業(yè)準(zhǔn)確的道德判斷。并且,不同的技術(shù)方案在科技倫理審查過程中會呈現(xiàn)不同的風(fēng)險收益比,非固定的組成人員更有利于確保相應(yīng)的道德判斷結(jié)論符合當(dāng)下科技倫理發(fā)展趨勢。

科技倫理審查委員會的獨立性是實現(xiàn)科技倫理審查制度功能的基本保障,其中最重要的一點便是通過經(jīng)濟(jì)來源獨立實現(xiàn)倫理審查的獨立性。在自愿審查模式中,科技倫理審查表現(xiàn)為自律性審查,倫理審查委員會的獨立性要求相對較低,僅需滿足程序性要求,提供必要的審查場所、審查經(jīng)費等條件即可。雖然科技倫理審查委員會是由被審查對象組建,并由其支付倫理委員相應(yīng)報酬,但并不構(gòu)成自己審查自己,因為自愿審查模式本身就是一種非強(qiáng)制性的道德約束。但是,如果涉及強(qiáng)制審查模式,科技倫理審查委員會的獨立性要求較高,此時由被審查對象承擔(dān)相應(yīng)經(jīng)費、提供辦公場所、配備必要工作人員反而會削弱科技倫理審查的獨立性程度。一方面,必要的工作人員歸根結(jié)底屬于被審查單位的員工,獨立從事科技倫理審查工作不具有可行性;另一方面,審查經(jīng)費、審查工作場所均由被審查對象提供,更是難以保證倫理審查委員能夠獨立作出道德判斷。因此,對于強(qiáng)制審查情形,為了真正有效預(yù)防科技倫理風(fēng)險事件的發(fā)生,更建議通過財政支持、外部機(jī)構(gòu)設(shè)置科技倫理審查委員會等方式實現(xiàn)科技倫理審查的獨立性。有學(xué)者在分析和比較歐盟第8和第9科研和創(chuàng)新框架計劃的基礎(chǔ)上,發(fā)現(xiàn)歐盟對于資助項目的倫理考察越發(fā)重視,這兩個框架在倫理評價策劃層面分別設(shè)置了倫理自評價——倫理審查——倫理檢查與審核倫理自評估——倫理篩查——倫理檢查等管理流程。而其中的倫理審查(倫理篩查、倫理檢查)均是由外部的科技倫理審查委員會進(jìn)行。

科技倫理審查委員會的獨立性歸根結(jié)底還是保障審查委員能夠獨立作出道德倫理判斷。為了確保審查結(jié)果的獨立性和全面性,有學(xué)者總結(jié)了國外三種人工智能倫理審查的實踐范式:一是倫理嵌入,即讓倫理學(xué)專家加入人工智能科技創(chuàng)新活動,在具體的技術(shù)方案研發(fā)設(shè)計過程中持續(xù)提供倫理風(fēng)險識別和評估服務(wù)。這與國內(nèi)部分學(xué)者所提及的全生命周期科技倫理治理理念相似,能夠及時發(fā)現(xiàn)科技倫理風(fēng)險,但容易受到專家個人影響。二是倫理對齊,即通過獎勵模型、強(qiáng)化學(xué)習(xí)等技術(shù)方案確保人工智能系統(tǒng)設(shè)計運行與人類共同倫理觀保持一致,但現(xiàn)階段仍然停留于試驗階段。三是價值敏感設(shè)計,即在設(shè)計之初就開始融合多學(xué)科的倫理觀念確定相應(yīng)的技術(shù)方案,但無法在復(fù)雜的利益關(guān)系中達(dá)成倫理觀念共識。這些科技倫理審查的實踐模式均試圖將科技倫理審查從集中審查轉(zhuǎn)變?yōu)榱鞒淌綄彶槟J剑谠O(shè)計、研發(fā)、運用、用戶反饋等多個環(huán)節(jié)進(jìn)行科技倫理風(fēng)險的識別和治理,解決集中審查模式可能存在的審查標(biāo)準(zhǔn)單一、倫理審查委員會專業(yè)性不足等現(xiàn)實難題。不過,這種流程式審查也存在技術(shù)水平要求高、審查周期過長、額外支付倫理審查專家報酬等問題,但其實現(xiàn)獨立性、權(quán)威性的道德倫理判斷之邏輯具有一定的借鑒價值。

(二)審查流程:增設(shè)自愿審查模式

人工智能科技倫理審查是一項判斷人工智能技術(shù)應(yīng)用是否合理的科技倫理風(fēng)險識別治理機(jī)制,其具體的審查模式也應(yīng)當(dāng)圍繞技術(shù)應(yīng)用的合理性設(shè)置相應(yīng)的審查事項和審查標(biāo)準(zhǔn)。故此,科技倫理審查環(huán)節(jié)大致可以劃分為三個環(huán)節(jié):第一個環(huán)節(jié)是科技倫理風(fēng)險發(fā)現(xiàn)和識別,判斷待審查的科技創(chuàng)新活動是否存在顯著異常的科技倫理風(fēng)險。因為科技倫理風(fēng)險屬于倫理道德的風(fēng)險范疇,量化科技倫理風(fēng)險閾值既無必要也無可能,更重要的是判斷是否存在遠(yuǎn)超社會可接受范圍的科技倫理風(fēng)險。如若存在,則應(yīng)當(dāng)直接禁止此類人工智能技術(shù)的創(chuàng)新應(yīng)用;如若不存在顯著異常的科技倫理風(fēng)險,則進(jìn)入到合理性判斷環(huán)節(jié)。第二個環(huán)節(jié)是根據(jù)第一個環(huán)節(jié)所發(fā)現(xiàn)的科技倫理風(fēng)險與可預(yù)見的收益進(jìn)行比較,在價值衡量層面判斷收益范圍內(nèi)相應(yīng)的科技倫理風(fēng)險是否屬于可接受范圍,進(jìn)而作出相應(yīng)的道德判斷,具體包括是否存在科技倫理風(fēng)險”“科技倫理風(fēng)險是否屬于可接受范圍”“科技倫理風(fēng)險具體表現(xiàn)形式等事項。第三個環(huán)節(jié)則是審查建議,由倫理審查委員會在上個環(huán)節(jié)的風(fēng)險識別、合理性判斷的基礎(chǔ)上提出相應(yīng)的技術(shù)應(yīng)用方案改良建議,并反饋至被審查對象。由于科技倫理本身具有多元化的基本特征,部分科研機(jī)構(gòu)、科研人員可能并未注意到潛在的科技倫理風(fēng)險。此時,科技倫理審查機(jī)制引入內(nèi)外部專家給予不同知識背景下的科技倫理風(fēng)險判斷意見,能夠使得科研機(jī)構(gòu)、科研人員采用更為理想化的技術(shù)應(yīng)用方案。

這種科技倫理審查流程表面上似乎明顯增加了審查流程的時間周期和人力成本,不能有效降低科技創(chuàng)新活動的外部監(jiān)管負(fù)擔(dān),完全不具有可操作性。因此,需要說明的是,科技倫理審查的適用應(yīng)當(dāng)涉及三種情形:第一種情形是涉及全新的人工智能技術(shù)應(yīng)用方式。由于技術(shù)應(yīng)用不同于業(yè)已公開的產(chǎn)品或服務(wù),科研機(jī)構(gòu)、科研人員可能對潛在的科技倫理風(fēng)險難以準(zhǔn)確識別,故而需要引入科技倫理審查機(jī)制進(jìn)行合理性判斷。相應(yīng)地,如果人工智能科技創(chuàng)新活動涉及市面上已有的產(chǎn)品或服務(wù),那么完全沒有必要再進(jìn)行科技倫理審查。第二種情形是涉及顯著異??萍紓惱盹L(fēng)險的科技創(chuàng)新活動。鑒于風(fēng)險的特殊性,這類科技創(chuàng)新活動應(yīng)當(dāng)納入強(qiáng)制科技倫理審查范疇,避免類似基因編輯嬰兒事件的出現(xiàn)?!犊萍紓惱韺彶檗k法(試行)》也已經(jīng)規(guī)定了此類機(jī)制,即需要開展專家復(fù)核的科技活動清單制度。第三種情形是涉及具有守門人地位的科技企業(yè)從事的科技創(chuàng)新應(yīng)用活動。因為這類科技企業(yè)在市場份額、用戶數(shù)量等方面具有優(yōu)勢地位,相應(yīng)的科技倫理審查風(fēng)險波及更大,所以在涉及部署全新類型的人工智能應(yīng)用、人工智能應(yīng)用重大更新等可能發(fā)生科技倫理風(fēng)險顯著波動的情況時,需要進(jìn)行必要的科技倫理審查。

此外,還需要明確的是,科技倫理審查歸根結(jié)底屬于一種倫理型治理機(jī)制,故而需要區(qū)分強(qiáng)制審查和自愿申報審查兩種啟動程序。上文第一種和第三種屬于自愿申報申請類型,因為只要潛在的科技倫理風(fēng)險不具有顯著異常性,強(qiáng)制要求進(jìn)行科技倫理審查反而會不當(dāng)擴(kuò)大科技倫理審查的實際范圍。并且,這兩類情形所存在的科技倫理風(fēng)險并不足以造成嚴(yán)重的損害事實,即便這兩類情形涉及的科研機(jī)構(gòu)、科研人員沒有進(jìn)行科技倫理審查,也不可能因此要求這些科研機(jī)構(gòu)、科研人員承擔(dān)法律責(zé)任。倘若因為違反程序性規(guī)定而對其采取行政罰款、警告、約談等行政處罰措施,也違背了行政法的比例原則。從整體制度體系的角度理解,科技倫理審查的法制化實際上是將科技倫理審查劃分為倫理層面和法治層面兩類審查模式,而法治層面的科技倫理審查主要針對的是可能同時違背科技倫理和法律禁止性規(guī)定的科技創(chuàng)新活動,故而才存在強(qiáng)制審查、承擔(dān)法律責(zé)任等制度的適用可能性。因此,在建構(gòu)專門性的科技倫理審查規(guī)則時,則需要在概念界定條款或?qū)彶樵瓌t條款中明確人工智能科技倫理審查包括強(qiáng)制審查和自愿審查兩類審查模式。

(三)審查作用機(jī)制:法律風(fēng)險與倫理風(fēng)險的一體化評估

基于科技倫理風(fēng)險的治理目標(biāo),人工智能科技倫理審查的適用范圍始終僅限于有限的人工智能科技創(chuàng)新活動,《科技倫理審查辦法(試行)》第4條也將設(shè)定科技倫理(審查)委員會的情形限定為涉及科技倫理敏感領(lǐng)域。結(jié)合法律、倫理、市場、技術(shù)等治理工具的綜合技術(shù)治理體系,如若將科技倫理審查制度視為一種普適性義務(wù),要求所有科研單位、企業(yè)在開展各類人工智能技術(shù)創(chuàng)新和應(yīng)用之前均應(yīng)當(dāng)進(jìn)行科技倫理審查,則會陷入重復(fù)審查的制度泥沼。人工智能科技倫理審查法制化的核心目標(biāo)是為了進(jìn)一步完善對異常科技倫理風(fēng)險的預(yù)防和控制。因為忽視這類風(fēng)險徑直從事科技創(chuàng)新活動已經(jīng)具有違法性,現(xiàn)行立法也規(guī)定了安全風(fēng)險評估等具體制度用以約束這類行為,但從治理效果來看,這類風(fēng)險的事后歸責(zé)遠(yuǎn)不及事前預(yù)防有效,故而需要引入科技倫理審查,多方位阻斷這類超出合理科研創(chuàng)新范疇的科研活動。然而,僅以涉及科技倫理敏感領(lǐng)域或者異??萍紓惱盹L(fēng)險作為啟動科技倫理審查的前提條件似乎存在先驗性判斷,畢竟在邏輯層面,只有完成了科技倫理審查才能確定相應(yīng)的科技倫理風(fēng)險。這里需要澄清的是,相較于法律風(fēng)險、技術(shù)安全風(fēng)險而言,初步識別科技倫理風(fēng)險對專業(yè)領(lǐng)域的知識背景要求較低,故而一旦存在顯著的科技倫理風(fēng)險,科研單位、科研人員也能夠在科技創(chuàng)新活動之初進(jìn)行初步判斷,進(jìn)而明確是否有必要啟動強(qiáng)制性的科技倫理審查。

與生物醫(yī)學(xué)領(lǐng)域的科技倫理審查相比,人工智能科技倫理審查的行業(yè)特殊性在于,需要結(jié)合其他人工智能治理機(jī)制形成對整個人工智能技術(shù)風(fēng)險的控制。特別是在人工智能統(tǒng)一立法的語境下,更需要關(guān)注人工智能科技倫理審查的法制化路徑。在兼顧技術(shù)安全和技術(shù)創(chuàng)新的立法目標(biāo)下,增強(qiáng)科技倫理審查與其他技術(shù)治理機(jī)制之間的區(qū)分度,同時,合并重復(fù)的風(fēng)險識別、風(fēng)險治理相關(guān)的義務(wù)性要求,避免人工智能科技創(chuàng)新活動需要同時進(jìn)行數(shù)個功能目的相同或相近的業(yè)務(wù)合規(guī)事項。既有研究對于人工智能科技倫理審查法制化論述多集中于配套法律制度予以保障基礎(chǔ)立法與專門立法相結(jié)合兩類路徑:“配套法律制度予以保障側(cè)重區(qū)分科技創(chuàng)新活動與科技應(yīng)用活動,針對上游的研發(fā)設(shè)計活動設(shè)置原則性、程序性的科技倫理評估機(jī)制,并為科技社會化提供組織保證;針對下游的應(yīng)用活動設(shè)定法律優(yōu)先回應(yīng)議題,健全審查、評估、監(jiān)管在內(nèi)的科技倫理監(jiān)督體系。基礎(chǔ)立法與專門立法相結(jié)合則側(cè)重科技倫理審查應(yīng)當(dāng)體現(xiàn)行業(yè)主導(dǎo)性特征,在基礎(chǔ)立法層面設(shè)置科技倫理基礎(chǔ)性立法,通過綜合性、統(tǒng)攝性條款明確科技倫理審查的一般規(guī)則;在專門立法層面針對具有優(yōu)先治理需求的科技創(chuàng)新活動設(shè)置科技倫理審查特別規(guī)則。

前述兩種法治化路徑忽視了人工智能科技倫理審查法制化過程中的制度銜接問題。在未來建構(gòu)人工智能科技倫理審查機(jī)制的過程中,更需要關(guān)注該制度如何通過簡化部分程序性事項或與其他制度合并,達(dá)成更為高效的義務(wù)合并效果,以此實現(xiàn)人工智能立法的雙重目標(biāo)?!吨腥A人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》均規(guī)定了網(wǎng)絡(luò)安全、數(shù)據(jù)安全相關(guān)的負(fù)責(zé)人制度,并且要求義務(wù)主體保障負(fù)責(zé)人能夠獨立履職;《科技倫理審查辦法(試行)》同樣規(guī)定了單位應(yīng)當(dāng)采取必要措施保障科技倫理(審查)委員會獨立履職。按照此種邏輯,可能會推導(dǎo)出每一類安全風(fēng)險都需要義務(wù)主體提供必要的獨立履職條件這一荒謬的結(jié)論。為了避免這種情況的出現(xiàn),更需要在法律層面重新整合和解釋這些法定義務(wù)和科技倫理審查要求的履行方式。在人工智能技術(shù)風(fēng)險治理的論爭中,學(xué)者們越發(fā)側(cè)重對人工智能技術(shù)風(fēng)險的體系化治理,實現(xiàn)這一目標(biāo)也需要有效整合現(xiàn)有的風(fēng)險治理策略。人工智能技術(shù)風(fēng)險的呈現(xiàn)方式具有復(fù)雜性特征,并不能簡單地拆分為技術(shù)安全風(fēng)險、科技倫理風(fēng)險、法律風(fēng)險等具體風(fēng)險類型予以分類治理。所以,未來在制定人工智能統(tǒng)一立法時,應(yīng)當(dāng)允許義務(wù)主體采用更為靈活的審查評估模式,對潛在的科技倫理風(fēng)險、技術(shù)安全風(fēng)險等風(fēng)險類型進(jìn)行一次評估,也方便義務(wù)主體采取更為高效的安全保障措施以預(yù)防和控制人工智能技術(shù)風(fēng)險。

五、結(jié)語

武漢市蘿卜快跑的產(chǎn)業(yè)試點說明了人工智能技術(shù)普及應(yīng)用時代已經(jīng)悄然而至。在享有人工智能技術(shù)應(yīng)用便捷性的同時,不僅需要在法律制度層面規(guī)范技術(shù)應(yīng)用的安全監(jiān)管要求,還需要持續(xù)關(guān)注技術(shù)應(yīng)用背后的科技倫理風(fēng)險。在人工智能治理體系中,科技倫理審查機(jī)制能夠提供判斷人工智能技術(shù)應(yīng)用合理與否的綜合性分析框架。該項制度的功能作用是對待審查的人工智能科技創(chuàng)新活動進(jìn)行合理性審查,并將科技倫理審查結(jié)果反饋至被審查單位,通過非確定性的科技倫理規(guī)范對科技人員的倫理觀念產(chǎn)生潛移默化的影響。人工智能科技倫理審查并非合法性審查,而是判斷技術(shù)創(chuàng)新方式是否符合科技倫理規(guī)范的合理性審查。因為科技創(chuàng)新活動的合法性問題完全可以交由其他現(xiàn)行法律制度予以解決,并且以違反科技倫理為由認(rèn)定科技創(chuàng)新活動不具有合法性也超出了科技倫理規(guī)范的實際范疇??陀^而言,人工智能科技倫理審查是一種補(bǔ)充性的技術(shù)風(fēng)險治理機(jī)制,預(yù)防的風(fēng)險類型也是以科技倫理風(fēng)險為限,故而沒有必要過度神話科技倫理審查的治理效果和制度功能。在未來的人工智能立法活動中,更需要以風(fēng)險體系化治理的治理理念明確科技倫理審查與其他技術(shù)風(fēng)險治理機(jī)制的適用關(guān)系和銜接方式。




原文刊載于《當(dāng)代法學(xué)》2025年第1期,感謝微信公眾號“當(dāng)代法學(xué)編輯部  ”授權(quán)轉(zhuǎn)載。





车险| 芮城县| 九龙城区| 兰州市| 前郭尔| 望城县| 大名县| 北京市| 荆州市| 汉中市| 舟山市| 巴中市| 府谷县| 凤翔县| 错那县| 乌兰浩特市| 德格县| 琼中| 黄龙县| 都兰县| 宾川县| 咸宁市| 宣威市| 颍上县| 徐州市| 南通市| 河池市| 永顺县| 来宾市| 绍兴县| 永康市| 定南县| 汤阴县| 南投市| 揭西县| 奉化市| 合川市| 建宁县| 甘谷县| 广南县| 耒阳市|