【作者】李學(xué)堯
【內(nèi)容提要】
人工智能倫理審查制度的立法思路
李學(xué)堯 上海交通大學(xué)凱原法學(xué)院教授、上海交通大學(xué)中國(guó)法與社會(huì)研究院企劃委員
人工智能倫理與生物醫(yī)學(xué)倫理具有對(duì)稱性、延續(xù)性的關(guān)系,但人工智能倫理的責(zé)任主體、審查對(duì)象,及實(shí)質(zhì)性原則和規(guī)則(如自主原則)的問(wèn)題意識(shí)及其權(quán)重都有異于生物醫(yī)學(xué)倫理。生物醫(yī)學(xué)倫理審查過(guò)程體現(xiàn)為“大眾道德直覺(jué)”與“無(wú)法禁止的技術(shù)創(chuàng)新”之間的妥協(xié),人工智能倫理審查仍有此性質(zhì),但其“大眾道德直覺(jué)”可以通過(guò)技術(shù)途經(jīng)直接落實(shí)。人工智能的倫理挑戰(zhàn)主要集中于部署和應(yīng)用階段,而生物醫(yī)學(xué)倫理主要聚焦于研發(fā)和開發(fā)階段。由上述分析而得,人工智能倫理審查制度宜在科技倫理治理框架內(nèi)單行立法,并在倫理審查責(zé)任主體、審查啟動(dòng)條件、專家構(gòu)成、議事規(guī)則以及審查結(jié)論的法律效力等方面采取有異于生物醫(yī)學(xué)倫理的立法思路。
從生物醫(yī)學(xué)倫理制度尋求啟示
2022年國(guó)家網(wǎng)信辦頒布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條,是我國(guó)立法意義上構(gòu)筑人工智能倫理審查制度的開端。2023年7月,國(guó)家網(wǎng)信辦等7部委頒布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)則在實(shí)體法規(guī)則意義上例舉了人工智能倫理的相關(guān)原則。隨后,科技部等單位還頒布了具有規(guī)范性文件性質(zhì)的《科技倫理審查辦法(試行)》(以下簡(jiǎn)稱《倫理審查辦法》)并在附錄“需要開展倫理審查復(fù)核的科技活動(dòng)清單”中例舉了必須開展人工智能倫理審查的幾種情形。
如今,對(duì)于各級(jí)監(jiān)管部門以及合規(guī)主體來(lái)說(shuō),如何將人工智能倫理從道德原則框架轉(zhuǎn)化為可操作、可預(yù)期、可計(jì)算的倫理合規(guī)實(shí)踐,是一個(gè)亟待解決的實(shí)務(wù)問(wèn)題。近來(lái),中央有關(guān)部門正在就制定專門的人工智能倫理審查規(guī)定的議題通過(guò)多種方式征求各界意見。那么,我國(guó)該如何在“可操作、可計(jì)算、可預(yù)期”的思路下構(gòu)建人工智能倫理審查制度呢?鑒于生物醫(yī)學(xué)倫理及其倫理審查實(shí)踐較為成熟,可以將其作為重要的借鑒對(duì)象,展開相關(guān)的討論。大致上,可以從四個(gè)方面展開論述:第一,兩者具有怎樣的共同點(diǎn)。第二,兩者有什么區(qū)別,人工智能倫理具有什么特征。第三,生物醫(yī)學(xué)倫理的制度實(shí)踐及其理論討論有什么教訓(xùn)需要吸取。第四,生物醫(yī)學(xué)倫理的制度傳統(tǒng)有哪些方面可以被人工智能倫理實(shí)踐直接繼承、學(xué)習(xí)。
人工智能倫理與生物醫(yī)學(xué)倫理的延續(xù)性
在應(yīng)用倫理學(xué)界一直存在爭(zhēng)議的是,人工智能技術(shù)的發(fā)展是否提出了新的、獨(dú)特的倫理問(wèn)題,抑或人工智能倫理只是重復(fù)了在更成熟的領(lǐng)域,如生物醫(yī)學(xué)領(lǐng)域遭遇的相同倫理困境?對(duì)此,大部分曾經(jīng)研究生物醫(yī)學(xué)倫理的學(xué)者都會(huì)論證兩者之間存在高度的一致性或者延續(xù)性,并認(rèn)為其應(yīng)統(tǒng)合在應(yīng)用倫理學(xué)的理論體系之中。
如果對(duì)生物醫(yī)學(xué)倫理通說(shuō)的四大原則,尊嚴(yán)、有利、無(wú)傷以及公正,與各國(guó)立法和政策文件以及學(xué)術(shù)界所列的人工智能倫理實(shí)體原則進(jìn)行比較,確實(shí)可以得出這樣的結(jié)論:人工智能倫理與生物醫(yī)學(xué)倫理的基本原則存在較強(qiáng)程度的對(duì)稱性和一致性。(見表1)換言之,在法律框架內(nèi),可以采取類推等方式,從生物醫(yī)學(xué)倫理審查的實(shí)體性規(guī)則中,推導(dǎo)出人工智能倫理審查制度的相關(guān)原則和規(guī)則。
人工智能倫理與生物醫(yī)學(xué)倫理的差異
上文反思了過(guò)于強(qiáng)調(diào)人工智能倫理獨(dú)特性的思路。但是,在倫理審查的實(shí)務(wù)中,也需要警惕完全將生物醫(yī)學(xué)倫理和人工智能倫理視為一體,并在人工智能倫理合規(guī)實(shí)踐中簡(jiǎn)單復(fù)制生物醫(yī)學(xué)倫理審查實(shí)踐的保守主義思路。筆者曾運(yùn)用“事物本質(zhì)”的概念工具,初步歸納了人工智能倫理因其技術(shù)特征而區(qū)別于生物醫(yī)學(xué)倫理的三大制約性條件:道德規(guī)則的技術(shù)可嵌入性、更強(qiáng)的場(chǎng)景性以及依賴于技術(shù)過(guò)程的程序性。此處沿著該文中的理論延長(zhǎng)線繼續(xù)展開討論:
第一,合規(guī)主體上倫理責(zé)任主體單一性和“泛化”的差異。除了研發(fā)者、提供者以外,人工智能的使用者將成為倫理挑戰(zhàn)的重點(diǎn);而后者的范圍可以將其理解為全世界所有的自然人和非自然人主體。不同主體對(duì)人工智能倫理的使用,一方面可以指數(shù)式提高整個(gè)社會(huì)的運(yùn)轉(zhuǎn)效率,但另一方面,其引起的倫理爭(zhēng)議是紛繁復(fù)雜的,將其排除出倫理審查范圍是不可想象的。換言之,和生物醫(yī)學(xué)倫理相比,人工智能幾乎適用于任何人類活動(dòng),這為其使用提供了無(wú)數(shù)的可能性,決定了其不可能類似生物醫(yī)學(xué)倫理一樣可以簡(jiǎn)單地還原為科研人員或者醫(yī)生的職業(yè)倫理。它會(huì)挑戰(zhàn)所有領(lǐng)域的人類業(yè)已形成的倫理道德規(guī)則,而所有的使用者都有可能成為潛在的倫理挑戰(zhàn)者。
當(dāng)然,這會(huì)引向兩種討論:一是人工智能使用階段的倫理沖突,最終可能需要或者可以通過(guò)立法程序或者司法審查來(lái)實(shí)現(xiàn),但考慮到具體應(yīng)用場(chǎng)景的復(fù)雜性、不確定性以及效率提升的需要,可以通過(guò)各種形式的法律授權(quán),將倫理審查的義務(wù)授權(quán)給平臺(tái)型和公共管理型使用者、將倫理困境解決的大部分義務(wù)配置給自我監(jiān)管主體依法成立的倫理審查委員會(huì)。二是需要區(qū)分因科技創(chuàng)新引發(fā)的不同類型的道德困境場(chǎng)景。電影《我不是藥神》中的倫理爭(zhēng)論是由仿制藥是否可以與如何使用引發(fā)的,但其困境的產(chǎn)生根源是行政秩序維護(hù)與治病救人的價(jià)值沖突,而不是這種技術(shù)是如何影響個(gè)人和人類自主權(quán)的問(wèn)題。
第二,合規(guī)內(nèi)容上原則和規(guī)則側(cè)重點(diǎn)的差異。以自主性原則為例,毋庸置疑,人類集體和個(gè)人的自主性是人工智能倫理原則的關(guān)鍵。一是個(gè)體自由意義上的自主權(quán),包括對(duì)隱私、財(cái)產(chǎn)權(quán)的保護(hù)等;二是人類整體意義上的自主性,包括高度自主的人工智能系統(tǒng)應(yīng)被設(shè)計(jì)成可以確保其目標(biāo)和行為在整個(gè)操作過(guò)程中與人類價(jià)值觀保持一致。盡管傳統(tǒng)生物醫(yī)學(xué)的技術(shù)研發(fā)及其應(yīng)用,比如致命生物武器也可能引發(fā)人類整體被滅亡或者被其它非人類控制的危險(xiǎn),但人工智能系統(tǒng)可能會(huì)接管、威脅整個(gè)人類自主性中所體現(xiàn)的倫理挑戰(zhàn),并不是傳統(tǒng)生物醫(yī)學(xué)倫理面對(duì)的重點(diǎn)。
再以正義原則為例。由于人工智能系統(tǒng)深刻地介入并逐漸替代人類決策,它與生物醫(yī)學(xué)技術(shù)本身只是決策對(duì)象、利益分配對(duì)象有著本質(zhì)的區(qū)別。所以,生物醫(yī)學(xué)技術(shù)的研發(fā)最多涉及分配正義,且一般是再分配階段所考慮的內(nèi)容,并非研發(fā)階段所需思考的對(duì)象。但人工智能系統(tǒng)的運(yùn)轉(zhuǎn)本身就會(huì)消解或者異化已有的法律程序制度。比起以往應(yīng)用倫理學(xué)領(lǐng)域處理的所有研究對(duì)象,人工智能的應(yīng)用及其對(duì)社會(huì)的變革性影響更加廣泛、深遠(yuǎn)。所以,每一個(gè)前沿性人工智能技術(shù)的研究、開發(fā)、部署以及使用,都有必要從人類正義或者人類現(xiàn)存社會(huì)秩序能否得以延續(xù)的角度展開自我審查。
第三,合規(guī)對(duì)象上“非道德性”和“有道德性”的分野。人工智能倫理與生物醫(yī)療倫理的審查對(duì)象的最大差別在于“非道德性”和“有道德性”要求。近來(lái),國(guó)際上人工智能原則的實(shí)質(zhì)內(nèi)容逐漸被凝煉闡述為“可信任原則”,而“可信任”實(shí)際上也可以轉(zhuǎn)述為“有道德性”的表述。
在生物醫(yī)學(xué)領(lǐng)域,非人工智能技術(shù)意義上的生物醫(yī)學(xué)技術(shù)和產(chǎn)品,具有鮮明的“非道德性”特征,因此可以在法律合規(guī)中較順利地應(yīng)用“技術(shù)中立原則”。人工智能與傳統(tǒng)生物醫(yī)學(xué)研發(fā)和應(yīng)用的區(qū)別是,它的產(chǎn)品和服務(wù)不只是硬件設(shè)備,而通常是極其復(fù)雜系統(tǒng)中的程序和應(yīng)用程序,如健康和福利數(shù)據(jù)生成系統(tǒng)、稅收系統(tǒng)。因此,對(duì)于人工智能技術(shù)和產(chǎn)品,特別是生成式人工智能系統(tǒng),顯然難以再簡(jiǎn)單地適用技術(shù)中立原則。
人工智能倫理審查制度構(gòu)建的要點(diǎn)
通過(guò)上述分析,我國(guó)人工智能倫理審查制度的立法思路可以從以下方面展開。
第一,立法模式。通過(guò)前文分析,人工智能倫理的立法有必要與生物醫(yī)學(xué)倫理的立法進(jìn)行區(qū)別。人工智能倫理審查制度宜在科技倫理治理框架內(nèi)單行立法,并在倫理審查負(fù)責(zé)主體、審查啟動(dòng)條件、專家構(gòu)成、審查結(jié)論的法律效力和議事規(guī)則等方面做出有異于生物醫(yī)學(xué)倫理的規(guī)范要求。
具體來(lái)說(shuō),就是要在現(xiàn)行的倫理審查體系中,在主要基于生物醫(yī)學(xué)倫理審查場(chǎng)景的《倫理審查辦法》之外,盡快起草一部專門針對(duì)人工智能倫理的平行性行政規(guī)章或者規(guī)范性文件。目前,有一種立法思路是,將《倫理審查辦法》作為相關(guān)人工智能倫理審查制度的上位法。由于已有的“科技倫理”及其相關(guān)倫理審查制度(比如委員會(huì)構(gòu)成)都承繼了“生物醫(yī)學(xué)倫理審查”的制度,為了防止后者審查思路帶來(lái)的不可知的慣性思維,很有必要在短期盡快起草一部不受《倫理審查辦法》限制的規(guī)范性文件或者行政規(guī)章??紤]到人工智能倫理原則的實(shí)操性關(guān)涉中國(guó)人工智能技術(shù)和產(chǎn)業(yè)的競(jìng)爭(zhēng)優(yōu)勢(shì),且涉及大量的程序性規(guī)范、授權(quán)性規(guī)范,因此很有必要在中短期起草一部單行性的《人工智能倫理法》,并在時(shí)機(jī)成熟時(shí),將其作為通用型的《人工智能法》專章內(nèi)容進(jìn)行擬制。
第二,具體條款內(nèi)容。鑒于人工智能倫理的嵌入性、場(chǎng)景性以及程序性特征,使得其更需要自下而上、演化型的規(guī)則生成模式,所以,在具體倫理裁斷場(chǎng)景中,工程師與倫理專家、法學(xué)專家的有效溝通、對(duì)立性對(duì)抗、達(dá)成共識(shí)并最終轉(zhuǎn)化為行為極其重要。因此,在倫理審查相關(guān)條款的設(shè)計(jì)方面,不宜將過(guò)多的條款設(shè)計(jì)資源放在實(shí)體性倫理原則的內(nèi)容設(shè)計(jì),而是應(yīng)在關(guān)注程序性的視角,注重三種條款的設(shè)計(jì):
一是關(guān)于倫理審查委員會(huì)的設(shè)置主體、職責(zé)內(nèi)容和責(zé)任配置。一方面,不同于生物醫(yī)學(xué)技術(shù),人工智能技術(shù)的研發(fā)主力逐漸轉(zhuǎn)變成了企業(yè),而非高校和科研機(jī)構(gòu)。因此,倫理審查委員會(huì)的主管部門應(yīng)從科研機(jī)構(gòu)和高校的主管部門主導(dǎo),轉(zhuǎn)變?yōu)橛晒I(yè)和信息部門主導(dǎo)。另一方面,從專家權(quán)力與行政權(quán)力等權(quán)力合理分配的角度,對(duì)其做更多的授權(quán)性條款設(shè)計(jì)。同時(shí),也要配合明確人工智能倫理治理過(guò)程中的“平臺(tái)型開發(fā)和應(yīng)用企業(yè)”的守門人責(zé)任,并對(duì)其自我創(chuàng)制的相關(guān)規(guī)則進(jìn)行授權(quán)性確認(rèn)。
二是關(guān)于倫理審查委員會(huì)的組成。為了更好地形成“對(duì)立面設(shè)置”,應(yīng)對(duì)委員對(duì)選聘、構(gòu)成、資格及其成員動(dòng)態(tài)調(diào)整等做重點(diǎn)設(shè)計(jì)。其中,考慮到“有道德人工智能”的人工智能倫理審查目標(biāo)及其技術(shù)可實(shí)現(xiàn)性,在倫理審查過(guò)程中,應(yīng)注重增加人工智能技術(shù)專家的比重。人工智能倫理審查仍有“大眾道德直覺(jué)”的特質(zhì),但可以通過(guò)技術(shù)途經(jīng)直接落實(shí),這應(yīng)該在倫理審查委員會(huì)的資格和構(gòu)成中得到體現(xiàn)。
三是關(guān)于倫理審查委員會(huì)的議事規(guī)則。應(yīng)注重評(píng)議程序、決策程序的設(shè)計(jì)。與第二點(diǎn)相關(guān)的是,鑒于人工智能倫理可嵌入性的技術(shù)化需求,在評(píng)議程序設(shè)計(jì)中也可以設(shè)置適合技術(shù)化的討論流程,以防止出現(xiàn)倫理審查程序空轉(zhuǎn),最后淪落為“大眾道德直覺(jué)限制人工智能技術(shù)進(jìn)步”工具的問(wèn)題。
四是關(guān)于人工智能倫理審查程序啟動(dòng)的條件。不應(yīng)將人工智能倫理審查的重點(diǎn)只放在研究和開發(fā)階段、將責(zé)任主體只識(shí)別為研發(fā)者和提供者,應(yīng)更多地將倫理審查責(zé)任配置給使用者,特別是決策型人工智能系統(tǒng)的行業(yè)使用者或者平臺(tái)型使用者。這種倫理審查重點(diǎn)的轉(zhuǎn)變,既是人工智能技術(shù)的特質(zhì)所引發(fā)的,也是更好促進(jìn)人工智能技術(shù)研發(fā)及其產(chǎn)業(yè)發(fā)展的責(zé)任優(yōu)化配置的需要。