AIGC:一种生产力的变革
面对互联网(wǎng)内容生产效率提升的迫切(qiē)需求,是否能够利用人工智能(néng)去辅助(zhù)内容生(shēng)产?这种继专业生(shēng)产内容(PGC)、用户生成内容(UGC)之后形成的、完(wán)全由人工智能生成内容的(de)创作形式被称为AIGC。最初的AIGC通(tōng)常基于小(xiǎo)模型展(zhǎn)开,这(zhè)类模型一(yī)般需要特殊的标注数据训(xùn)练,以解决特定的场景任务,通用性较差(chà),很难被迁(qiān)移,而且高度依赖人工调(diào)参。后来,这种形式的AIGC逐渐被基于(yú)大数据量、大参(cān)数(shù)量、强算法的大模(mó)型取(qǔ)代(dài),这(zhè)种形式的AIGC无须经过调整或只经过少量微(wēi)调就(jiù)可以迁移到(dào)多(duō)种生成任务。
2014年诞(dàn)生的(de)生(shēng)成对抗网(wǎng)络(GAN)是AIGC早期转向大(dà)模型的重要(yào)尝试,它利用生成(chéng)器和判别器(qì)的相互对(duì)抗并结(jié)合其他技术模块,可(kě)以实(shí)现各种模态内容的生成。而到了2017年,变换器( Transformer)架构的提出(chū),使(shǐ)得深(shēn)度学习模型(xíng)参数(shù)在后续的发展中得(dé)以突破1亿大关。2022年11月30日(rì),开放人(rén)工智能研(yán)究实验室(OpenAI)发布了(le)名为ChatGPT的超级人工(gōng)智能(AI)对话模型。ChatGPT不仅可以清晰地理解用户(hù)的问(wèn)题,还能如同人类一般流畅地回答(dá)用户的问题,并完成一(yī)些复杂任务,包括按照特定(dìng)文风(fēng)撰写诗歌(gē)、假扮特定角色对(duì)话、修改错(cuò)误代码等。此(cǐ)外,ChatGPT还表现出一些人类特质,例如承认自己(jǐ)的错误,按照设定的道德准则拒绝不怀好意的请求等。ChatGPT一上线,就引发网(wǎng)民争相体验,但也有不少人对此表(biǎo)示担忧(yōu),担心作家、画家、程序员等职业在未来都将被人工智能所取代。
虽然(rán)存在这些担忧,但人(rén)类的创造(zào)物终究会帮助人类自身的发展(zhǎn),AIGC无疑(yí)是(shì)一种生产力(lì)的变革,将世界送入智能创作时代。在智(zhì)能创作(zuò)时代,创作(zuò)者生(shēng)产力的提(tí)升(shēng)主(zhǔ)要表现为三个(gè)方(fāng)面:一(yī)是代替创作中的重(chóng)复环节,提升创作效率;二是将创意与创作相(xiàng)分(fèn)离,内容创作者(zhě)可以从人工智能的生成(chéng)作品(pǐn)中找(zhǎo)寻灵感与思(sī)路;三是综合海量预(yù)训练的(de)数据和模型中引入的随机性,有利于拓展创新的边界,创作(zuò)者可以生产出过去无法想出(chū)的杰出创意。
技术(shù)伦理成为发展的重要关(guān)注点
AIGC技术的(de)发展无(wú)疑(yí)是革命(mìng)性的。它可以改(gǎi)善我们(men)的日(rì)常生活(huó),提高生(shēng)产力,但也面临着诸多技术伦理方面的挑战。
一个典型的(de)AIGC技术伦理问题是AI所生成(chéng)内容的危险性。科学家正尝试运用一些(xiē)技术手段避(bì)免这些(xiē)具有潜在风险的事(shì)件发生。通过改善(shàn)数据集,增加(jiā)更(gèng)多的限制性条(tiáo)件(jiàn)以及(jí)对模型进(jìn)行微(wēi)调(diào),可(kě)以(yǐ)使得人工智能减少(shǎo)对于有害内(nèi)容(róng)的(de)学习,从(cóng)而降低人工智能本(běn)身的危险性。甚至(zhì)我们可(kě)以“教会”人工智(zhì)能如何更尊重他(tā)人,减少判断当中的偏(piān)见,更好地和人(rén)类相(xiàng)处。借鉴强化学(xué)习思想(RLHF)方法就是减少(shǎo)人(rén)工智能生(shēng)成危(wēi)害性内容的典型措施,ChatGPT就是采用这种方式训练的(de)。在RLHF的框(kuàng)架(jià)下,开发人(rén)员会在人工智能做出(chū)符合人类预期回答时给予奖励(lì),而在做(zuò)出有害内容的回答时施加惩罚,这种根(gēn)据人类反馈信(xìn)号直接优化语言模型(xíng)的方法可以给予AI积极的引导。然而,即便采用(yòng)这种方式,AI生(shēng)成的内(nèi)容也(yě)有(yǒu)可能在刻意诱导的情况下具有危害性。以ChatGPT为例,在(zài)一位工(gōng)程师的诱导下,它(tā)写出了步骤详细的毁灭人类计划(huá)书(shū),详细到入侵(qīn)各国(guó)计算机系统、控制武器(qì)、破坏通讯和交通系统等。还有一些人表达了对(duì)RLHF这类(lèi)安全预防性技(jì)术措施(shī)的质疑,他们担忧足够聪(cōng)明的人工(gōng)智能可能会通过模仿人类(lèi)的伪(wěi)装行为来绕过惩罚,在被监视的时候假装是(shì)好人,等待时机,等到没有监视的时候再(zài)做坏事。
除了从训练角度(dù)对AIGC潜在技(jì)术(shù)伦理问(wèn)题进行预防(fáng)外,在使用上及时告警停(tíng)用的技术措施更显必要。AIGC产品应该对生成的内容进(jìn)行一系列合理检测,确保其创作内容不被(bèi)用于有害或(huò)非(fēi)法目的,一旦发(fā)现此类用途,人工智能应该可以立刻识别,停止提供服务,并(bìng)且给出(chū)警告甚至联系相关监管或者执法机构。
监管法律正待完善
随着全(quán)球范围内的相关(guān)法(fǎ)律法规的不断完善,无(wú)论是赋能产业升级还是自主释放价值,AIGC都将(jiāng)在健康有序的发展中得到推进。标准规范为(wéi)AIGC生态构建了(le)一个技(jì)术、内容(róng)、应用、服(fú)务和监管的全过程一体化标准体系,促进AIGC在合理、合规和合法(fǎ)的框架下(xià)进行良性发(fā)展。
以(yǐ)美国为例,虽然美国在AIGC技(jì)术领(lǐng)域起(qǐ)步较早,且技术布局一(yī)直处于全球领先地位,但迄(qì)今为止还没有关(guān)于AIGC的全面联邦(bāng)立法。考虑到AIGC所涉及的风险以及滥用可能造成的严重后果,美国正在加速检查(chá)和制定AIGC标准的进程。例如美国国(guó)家标准与(yǔ)技术研(yán)究院(NIST)与公共和私(sī)营部门就联邦标(biāo)准的制定进行了讨论(lùn),以创建(jiàn)可靠、健全和值得信赖的人工智能系统的(de)基础。与(yǔ)此同时(shí),州立(lì)法者也在考虑AIGC的好处和挑(tiāo)战。根据不完全统计,2022年,至少(shǎo)有17个州提出了(le)AIGC相(xiàng)关的法案或决议,并在科罗拉多州(zhōu)、伊利诺伊州、佛蒙特州和(hé)华盛顿州颁布。
目(mù)前,白宫科(kē)技政策(cè)办(bàn)公室已经颁(bān)布了10条关于人工智能法律法(fǎ)规的原则,为制定AIGC开(kāi)发和使用的监管和非(fēi)监管方法提供参考,包括建立(lì)公众对人工智(zhì)能的信任(rèn);鼓(gǔ)励公众参与并提高公众对人工智能标准和(hé)技(jì)术的认识(shí);将高标准的科学完整性和信(xìn)息质量应用(yòng)于AI和AI决策;以跨学科的方式使(shǐ)用透明(míng)的(de)风险(xiǎn)评(píng)估和风险管理方法;在考虑人工(gōng)智能的开发和部署时评估全部(bù)社(shè)会(huì)成本、收益和其他外部因素;追求基于性能的灵活方法,以(yǐ)适应人工智能快速变化的性质;评估人(rén)工智能应(yīng)用中的公平和非歧视问题;确定适当(dāng)的透明度(dù)和披(pī)露水平以增加公(gōng)众信任;保持控制以确保AI数(shù)据的机密性、完整性和可用性,从而使开发的AI安全可靠;鼓励机构间协调,以帮助确(què)保人工智能政策的一致性和可预测性。根据(jù)上述(shù)原(yuán)则框架以及AIGC领域后续发展中的(de)监(jiān)管实践,在不远的未来,将(jiāng)会有更多具(jù)体的监管条例(lì)落地。