根据英国(guó)《自(zì)然》杂志30日发表的(de)一项工程(chéng)学论文(wén),美国麻省理工学院(yuàn)团队报告研发(fā)出一种装配(pèi)了传(chuán)感器的“人工智能手套”,可以学习识别单个(gè)物(wù)体、估算重量和应用触觉(jiào)反馈。这一成(chéng)果有助于(yú)未来设计假体、机(jī)械工具和人机交互系统。
人类能够以适(shì)当的力度抓握和感受物体(tǐ),但是这种感(gǎn)觉反馈却很难在机器人身上实(shí)现。近年来,基于(yú)计算机视觉(jiào)的抓握策略,在新兴机器学习工具的帮助(zhù)下,取得了长足进步,但是目前(qián)依(yī)然缺少依赖于触觉信息的平台。
此次,麻省理工学院(yuàn)科学家萨博拉马伊安·桑德(dé)拉姆及其同(tóng)事,设计了(le)一种实用且简易廉价的可伸缩触觉手套,其(qí)仅需10美元,手套(tào)上面布置了548个传感器和64个导(dǎo)电线电极。
这种触(chù)觉(jiào)手套(tào)相当于由一张(zhāng)力(lì)敏薄(báo)膜和导电线(xiàn)网(wǎng)络组(zǔ)成(chéng)的传感器阵列。电极与薄膜之间的每(měi)一个重合点都对垂直力(lì)敏感,并会记录通过薄膜的电阻。研(yán)究人员带上手套(tào)单手操控物体,由此(cǐ)记录了一个大规模的触觉图谱(pǔ)数据集(jí)。数据集(jí)包含手指区(qū)域的(de)空间关联(lián)和对(duì)应(yīng),它们代表(biǎo)了(le)人类抓(zhuā)握的触觉特征。
研究团队使用手套,单(dān)手与26个物体进行互动,时间超过5个(gè)小(xiǎo)时,并录下(xià)了触觉视频。之后(hòu),他们利(lì)用记录下来的数据训(xùn)练(liàn)一种深度学习网络(luò)来识别这些图片(piàn),发现该深度学习网(wǎng)络(luò)能够(gòu)通(tōng)过(guò)持(chí)握方式鉴定出不同的物体。
这一技(jì)术(shù)的未来应用将(jiāng)非常广泛,譬(pì)如可用于机器人(rén)手术(shù)。这一领域此前最大的局限之一就(jiù)是机(jī)器人缺乏(fá)人类外科(kē)医(yī)生操作的“手(shǒu)感”,增加了(le)手(shǒu)术(shù)的不(bú)确(què)定性和风(fēng)险性,但通过力触觉反馈机制(zhì),可以让手术机器人将触觉实时传(chuán)递给主刀医生以(yǐ)及处理器,进一步将人工智(zhì)能医疗精(jīng)准化。