文 | 孙(sūn)良国(guó) 大连(lián)海事大(dà)学法(fǎ)学院教(jiāo)授
人工智能的治理是一项复(fù)杂的(de)系统工程,也是人类面对的核(hé)心(xīn)问题(tí)之一。我国人工智能的发展(zhǎn)要引领世(shì)界,就必须设计能(néng)够(gòu)支(zhī)撑(chēng)人工智能可持续发(fā)展的治理机制。其中,法律作为治国之重器,应当在人工智(zhì)能的治理中发挥重要作用。在(zài)人工(gōng)智(zhì)能的法律治理中,一个重(chóng)要议(yì)题是,人工(gōng)智能是否应(yīng)当成为法律主体。在(zài)世(shì)界范围内,此问题引起了巨(jù)大的学术争论和社(shè)会争议,不同甚或对立的观(guān)点不断登场,远未(wèi)达成(chéng)共(gòng)识。笔者的观点(diǎn)是(shì),人工(gōng)智能不应当成为(wéi)法(fǎ)律(lǜ)主体。
从(cóng)实证法(fǎ)的角度看,立法机关可以通过(guò)法律认可任何组织、实体或(huò)者其他事物作为法律主体。任何突破传统法律制度(dù)的新制度,都必须(xū)是经过价(jià)值判断后的恰当结果。人(rén)工智(zhì)能是否应当成为法律主体,取决(jué)于如下价值判断(duàn):既能(néng)够(gòu)促进人工(gōng)智能的发展,同时也能够消除人工智能的不当风险。技(jì)术(shù)变(biàn)革往往会伴随风险,但(dàn)只要风险可控且不会对人类价值(zhí)产生不(bú)可接受的影响,那(nà)么法律就应采取最优(yōu)措(cuò)施来抑(yì)制(zhì)风(fēng)险。考(kǎo)虑当下功用,兼顾长远(yuǎn)影响,总体来看,维(wéi)持目前法律(lǜ)制度,不赋予人工智能以法律主体地位,是人工智能法律治理的最(zuì)优解(jiě)。
人工(gōng)智能的发展(zhǎn)并不需要其成为法律主体
人工智能是概(gài)括性术(shù)语(yǔ),从机器学习到大规模(mó)语言(yán)模型等均(jun1)包括在内。人工智能是否需要(yào)成为法律主体,可(kě)以从(cóng)法(fǎ)律主体的历史演进规律获得启示。
整(zhěng)体而言,法律主体演进的基本规律可概(gài)括(kuò)为从(cóng)“人可(kě)非人”到(dào)“非人可人”。即使到近代社会,自然人(公(gōng)民)之间(jiān)的权利也是有差别的。只有在(zài)现代法治国家(jiā),自(zì)然人才享有平等的民(mín)事(shì)权利。不仅如(rú)此(cǐ),法律主(zhǔ)体也已经不再(zài)限于生物学意义(yì)上的人(rén),公司(sī)等实体(tǐ)也(yě)获得了法律的明确承认(rèn),同时附之以股东或者出资(zī)人以(yǐ)自(zì)己对公司的出资为限承担责任。此种承(chéng)认促进了现代科学(xué)技术(shù)和组织(zhī)形(xíng)式的跨越式变革,推进(jìn)了人类的文明进步。尽管部(bù)分(fèn)学者列举或(huò)者(zhě)设想了(le)目前人工智能应当作(zuò)为法律主体的具体(tǐ)场景,然而经过仔细分析,这些场景都没(méi)有显示出人工智能需要作为法律主体(tǐ)的(de)真正(zhèng)客观需求,也没有显示(shì)出既有的法律(lǜ)制(zhì)度(如(rú)代理、公司法等)阻碍了人工智能的(de)发展而通过使(shǐ)人工智能成为法律主(zhǔ)体会扫清该(gāi)障(zhàng)碍。
有(yǒu)学(xué)者认为,对(duì)社会生活(huó)的参与是判(pàn)断是否设定法律主体的重要因素。这一说法值(zhí)得商榷。因(yīn)为参(cān)与社会生活的身份有主体和客体之分,人工智(zhì)能是作为客体如(rú)机器、软件、程序(xù)或系统而参与的。即使(shǐ)客(kè)体很智能,甚至(zhì)可(kě)以在既有(yǒu)技术设计下做出独立判断,但此种独立(lì)判断所归责的(de)主体仍旧是设置、控制或(huò)使(shǐ)用该(gāi)机(jī)器的主体,所代表的依然是设置(zhì)、控(kòng)制(zhì)或(huò)使用该(gāi)客体的主体的意(yì)志。事物很(hěn)重要与法律(lǜ)赋予其法律主体资(zī)格是两个完全不同的(de)问题。例(lì)如,对(duì)很多人来说,宠(chǒng)物已经成(chéng)为社(shè)会生活的(de)重要部分(fèn),其中部分人对宠物的依(yī)赖性要远高(gāo)于其他事物,但这并不能证成宠物成(chéng)为法律主体。同理,虽然人工智能非常重要(yào),但法(fǎ)律仍然没(méi)有使之成为法律主体的内(nèi)在需(xū)求。
从责任(rèn)能力视角看,人工(gōng)智(zhì)能不能(néng)成(chéng)为法律主体
在民法上赋予法律(lǜ)主体资格(gé)的(de)一个重要条(tiáo)件是(shì)责任能力。承担责任意(yì)味(wèi)着(zhe),法律主(zhǔ)体承受不利的财产负(fù)担,而且该法律主(zhǔ)体通常应当是最终的责任承担者。责任能力的一个前提条件(jiàn)是,法律主体(tǐ)必须有独立的财产。如(rú)果没有独立的财产(chǎn),那么使人工智能(néng)承担责任就没有实质(zhì)意义。到目前(qián)为止甚或是(shì)在相当(dāng)长(zhǎng)的未来,我们都很难设想人工智能(néng)需要或者能够(gòu)拥有独立财产。由(yóu)于这一(yī)前(qián)提条件并不(bú)具备(bèi),那么(me)人工(gōng)智能成为(wéi)法(fǎ)律(lǜ)主体也就没(méi)有必要或者可能。从既有(yǒu)的媒体公开(kāi)报道(dào)的人工(gōng)智(zhì)能导致(zhì)人身或者财(cái)产损害的案件中(zhōng),我(wǒ)们均(jun1)可以根据既有法律规定找(zhǎo)到需要承(chéng)担责任的主体——开发人、设计者、所有者或使用者等。换言之,既有的法律制度(dù)能够解决(jué)目前人工智能所引发的人身或财产损害(hài)问(wèn)题。
进一步说,人工智能(néng)成为法(fǎ)律主体甚至(zhì)有潜在的不(bú)可预计的风险。人工智能(néng)成为法律主体的一(yī)个自然推论是,它能(néng)够独立承担责任。由于人工(gōng)智能的确会导致伤害(hài)甚或大规模伤害(hài),如(rú)隐私泄露、数据毁坏(huài)、人身损害等——到目前为(wéi)止,即使是专家也很(hěn)难(nán)完(wán)全(quán)了解大规模模型的内在运行机(jī)制,并准确预(yù)测未(wèi)来可能发生的伤(shāng)害(hài)及其规模,而且对如何抑制(zhì)未来的大(dà)模型(xíng)伤害尚未形成共(gòng)识。不仅如此,更危险的情形可能是,人工智能会有意或无意生成执行危险行为的能力,甚至“学习掌握(wò)”如何影响人类(lèi)使用者,进而鼓动特定群(qún)体以破坏性甚或毁灭式方式行动。此时,人工(gōng)智能承担责(zé)任就(jiù)意(yì)味着开发、设计、运行(háng)、使用人(rén)工智能的(de)主体将可以逃避法(fǎ)律制裁,这是极不可取(qǔ)的(de)结果,必须予以避(bì)免。尽管“刺穿人工(gōng)智(zhì)能面纱”制度可以(yǐ)减缓(huǎn)上述不利后果,但是(shì)该制度应当有严格(gé)的适用要件(jiàn),不可常规性地使用,否则就有违人工智能作为法(fǎ)律主体的设(shè)计(jì)初衷。
情感(gǎn)、理性、意志不(bú)证(zhèng)成人工智能成(chéng)为法律主(zhǔ)体
情感(gǎn)、理性、意志与(yǔ)人工智能的法律主体问题有(yǒu)内(nèi)在(zài)关联。一种观点认(rèn)为,赋予法律(lǜ)主体的一个传统要素是,其必须能够有(yǒu)情感(gǎn)、理性、意志。尽管人工(gōng)智能是以深度学习为基础,然而(ér),既(jì)有的人工智能大都不存在(zài)情感。尽管有些人工(gōng)智能的技术领导者(zhě)认为,人工智能很(hěn)快就向有情感的方向(xiàng)发(fā)展。然而,即使有情(qíng)感,甚或是自主情感,人工智能也不应当成为法律主体。因(yīn)为(wéi)相比很多人工智能而言,很多动物(wù)已经具有丰富的情感(gǎn)甚(shèn)至一(yī)定的自我(wǒ)意识。尽(jìn)管动物可(kě)以获得某些(xiē)权利(lì),然而从主(zhǔ)导价值观审视,动物依(yī)然不能获得和人一(yī)样完全(quán)相同或者高度相似的法律(lǜ)主体身份(fèn)。我国民法(fǎ)典也采(cǎi)纳了此种(zhǒng)立场。从规范意(yì)义上评价,情感、理性、意志并非赋予(yǔ)法律主(zhǔ)体(tǐ)的(de)必备(bèi)要素。与(yǔ)此相关的是,即使人工智能的推理能力已经(jīng)超过了(le)人类,也无法(fǎ)证成赋予其法律主(zhǔ)体地(dì)位是一(yī)种必备或者最优(yōu)的解决方案。
在(zài)比较法(fǎ)上,的确(què)有一(yī)些事物尤(yóu)其是自(zì)然资(zī)源被(bèi)赋予了法律主(zhǔ)体资格,如(rú)部分国家通过立法赋予了珊瑚礁、河(hé)流(liú)或机(jī)器(qì)人以法律(lǜ)主体资格。然(rán)而我们发现,这些特殊事物都没(méi)有在民事法律中成为法律主体,更没有(yǒu)在民事基础性法律——民法典中成为法律主体。2017年新西兰通过立(lì)法赋予了旺格努伊河的法(fǎ)律主体资格,该法是与旺格(gé)努伊(yī)河毛利人妥(tuǒ)协的一部分,是因为毛利人一直认为(wéi)该河(hé)有生命(mìng)力,该(gāi)法的通(tōng)过能(néng)够给毛利人(rén)带来希望。在特别(bié)的(de)法律(lǜ)中赋予其(qí)某些特殊(shū)利益或者权利,并不能在一(yī)般意义上证成其应当成(chéng)为(wéi)法律主体(tǐ)。
人(rén)工智能不作(zuò)为法(fǎ)律主体并不影响人工智能法律制度的变革
可以(yǐ)预见的是(shì),人(rén)工智能已(yǐ)经或者在未(wèi)来可能(néng)会经受伤害。基于人类的价值判断以及现代法治文(wén)明,法律制度也(yě)不应故步(bù)自封,一个可能的预备解决方案是,尽管人工智能不应当成为(wéi)或者不(bú)是法律主体,但是有情感的人工智能机器人或者其他产品未来可能会(huì)受到法律的(de)特殊规制,以保护人类对它(tā)们的某(mǒu)些情(qíng)感利益和其(qí)他利益。
人工智能的复杂性也(yě)会产生一些现行法(fǎ)很难有(yǒu)效解决的问题。例(lì)如,大多数人(rén)工智(zhì)能系(xì)统(tǒng)都是诸(zhū)多开发(fā)人、设计(jì)者(zhě)、所有(yǒu)人、经营者、用户之间(jiān)通过复杂的(de)跨国协议(yì)产生的产品,在这一相互独立的关系的国际化网络中(zhōng),确定某个(gè)或者某(mǒu)几个主体来承担责任几乎不可能。不仅如此,基于不透明性(xìng)以(yǐ)及一些人(rén)工智能(néng)系(xì)统的(de)自我学习性,伤害的风险可能是以一种负责开(kāi)发的(de)主体(tǐ)所不可预见的方式导致的,确定特定实体来承担(dān)责任更(gèng)是难(nán)上加难。这就需要人工智能(néng)法律(lǜ)制度的持续变革(gé)。更好(hǎo)拥抱人(rén)工智能的方式是设定适(shì)应(yīng)性的治理(lǐ)框架,以(yǐ)保护人类的(de)文明成果(guǒ)。人工智能促进人类向好的方(fāng)向发展,就(jiù)需要通过多层次(cì)制度为基础的有效(xiào)治理来(lái)促使其具有可解释性、可预测性、可信赖性。