12月16日至17日,由北京未来芯片技术(shù)高(gāo)精尖创新中心及清(qīng)华大学微(wēi)电子学(xué)研究所联合主办的“北京高精尖论坛暨2019未来芯片(piàn)论坛”在清华大学举行,这次论坛上,类(lèi)脑(nǎo)计算成为多位权(quán)威专(zhuān)家热议的人工智(zhì)能研究方向。
人工智(zhì)能浪潮下的洋流
类脑计算又被称为神经形态计算(Neuromorphic Computing)。它不仅是(shì)学术会议关注(zhù)的(de)新热点(diǎn),产(chǎn)业界也(yě)在探索之(zhī)中。
11月(yuè)中旬,英特尔官网宣布了一则消息(xī):埃森哲、空中(zhōng)客车(chē)、通用电气和(hé)日立公司加入英特尔神经形(xíng)态研(yán)究共同体(INRC),该共同体目前已(yǐ)拥(yōng)有超过75个成员机构(gòu)。
如果说,当下人工智能发(fā)展浪(làng)潮正波涛汹涌(yǒng)的话,类脑计算就是浪潮之下的洋流。虽不太(tài)引人注(zhù)意,未来(lái)却有可能改变人工智能发(fā)展趋势。
原因之一是,深度学习虽在语音识别、图(tú)像识别(bié)、自然语(yǔ)言(yán)理解等领域(yù)取得很大突(tū)破,并被广(guǎng)泛应用,但(dàn)它需要大量(liàng)的算力支撑,功耗(hào)也很高。
“我(wǒ)们希(xī)望智能驾驶汽车的驾驶(shǐ)水平(píng)像司机一样,但现在显然(rán)还达不到。因(yīn)为它(tā)对(duì)信息的(de)智(zhì)能判断和分析不够,功耗(hào)也非常高。”清华大学微纳电(diàn)子系教(jiāo)授吴(wú)华强告(gào)诉科技日报记者,人工智能算法训练(liàn)中(zhōng)心在执行任(rèn)务时动辄消耗电(diàn)量几万(wàn)瓦甚至几十万(wàn)瓦,而人的大脑耗能却(què)仅相当于20瓦左(zuǒ)右。
北京大学计算机科学技术系教授黄铁军(jun1)也举了一个生动的例(lì)子:市场(chǎng)上应用深度学习技术(shù)的智能(néng)无人(rén)机已经十分(fèn)灵巧,但从智能程度上看(kàn),却与一(yī)只(zhī)苍蝇或蜻蜓相差甚远,尽管(guǎn)体积和功耗比后者高很多。
追(zhuī)求模拟大脑的功能
到底什(shí)么是类脑计算(suàn),它(tā)又凭什么赢(yíng)得学术(shù)界和产业界(jiè)的宠爱?
“类脑计算从结构上追求设计出像(xiàng)生物(wù)神(shén)经网络那样的系统,从功能上追求模拟大脑的功(gōng)能,从性能(néng)上追求(qiú)大幅(fú)度超越生物大脑(nǎo),也称神(shén)经形态计算。”黄(huáng)铁军接受科技日报记者采访时说。
类脑计算试图模拟生物神经网络的结构和信息加工过程。它在软件层面的尝试之一是脉冲神经网络(SNN)。
现在深度学习一般通过卷积神经网络(CNN)或(huò)递(dì)归神经网络(RNN)来实现。“CNN和RNN都属于人工神经网络,其中的人工神经元,至今仍在(zài)使用上世纪(jì)40年(nián)代时的模型。”黄铁(tiě)军说,虽然现(xiàn)在设计出的人工神(shén)经网(wǎng)络越来(lái)越大,也越来越复杂(zá),但从根本上讲,其神经元模型没有太大改进。
另一方面,在深度学习(xí)人工(gōng)神经网(wǎng)络中,神(shén)经元之间的连接(jiē)被称为(wéi)权值。它们(men)是人工神经网络的关键(jiàn)要素(sù)。
而在脉冲(chōng)神经网络中,神经元之间却是(shì)神经脉冲,信息的表达和处理通过神(shén)经(jīng)脉冲(chōng)发送来实现。就像我们的大脑中,有大量神经脉(mò)冲在传递和(hé)流(liú)转。
黄铁军告诉记者,由于神经脉冲在不(bú)停地传递和流转(zhuǎn),脉冲神经网络在表(biǎo)达和处理信(xìn)息时,比深度学习的(de)时间性更突出,更加适合进行(háng)高效(xiào)的时空(kōng)信(xìn)息处理。
推(tuī)广应用可能(néng)不(bú)需太(tài)久
也(yě)有人从硬件层面去实现类脑计算(suàn),比如神(shén)经形(xíng)态芯片(piàn)。
2019年7月,英特尔发布消息称,其(qí)神经(jīng)形(xíng)态研究芯片Loihi执行专用(yòng)任务的速度可比普(pǔ)通CPU快1000倍,效(xiào)率高10000倍。
“在对信息的编码、传输和处理方(fāng)面(miàn),我(wǒ)们希望(wàng)从大脑机制中获(huò)得(dé)启发,将这些想法(fǎ)应用到芯片技术上(shàng),让芯片的(de)处理(lǐ)速度更快、水平更高、功耗更低。”吴华强(qiáng)也在进行神经形态芯片相关研究,他告诉科技(jì)日(rì)报记者。
吴华强介(jiè)绍,在传统的冯·诺(nuò)依曼架构中,信(xìn)息(xī)的处(chù)理和存储是分开的,而人的大脑在处理信息时,存储和处理是融为一体的。
“所以(yǐ)我们在尝试研发(fā)存算一体化的芯片,希望通过避免芯片(piàn)内部不停地搬(bān)运数据,来大幅提(tí)高芯片的能效比。”吴华强说(shuō),他的团队(duì)现在也(yě)已研发出存算一体的样品芯片。
谈到(dào)类(lèi)脑计算的进展(zhǎn),黄铁军告诉记者,目前类(lèi)脑计算仍在摸索阶段,还缺乏典(diǎn)型(xíng)的成功应用。但(dàn)商业公(gōng)司已经嗅(xiù)到(dào)味(wèi)道,相关(guān)技(jì)术获得规模性应用可(kě)能不需(xū)要(yào)太长时间。
“现在(zài)的(de)神经形态计算还比(bǐ)较(jiào)初步,它的发展水平跟现有主流人工智能算法相比,还存在一定差距。”中(zhōng)科(kē)院(yuàn)自(zì)动化所研究(jiū)员张兆翔接受(shòu)科技(jì)日报记者采(cǎi)访时认为(wéi),但作(zuò)为(wéi)一种(zhǒng)新的(de)探(tàn)索方(fāng)式,应该继续(xù)坚持,因为(wéi)它(tā)可能就是未来人(rén)工(gōng)智能(néng)技术发展的重要(yào)突破口。