Editsprings@163.com (周一至周日,9:00-23:00) | (周一至周日,9:00-23:00)

艾德思:Nature发布MIT研发让机器人盲眼识物的触觉手套

论文润色 | 2019/06/21 10:20:04  | 251 次浏览

每次深夜醒来,即使漆黑中我们什么也看不见也能通过摸索准确的识别出手机或眼镜这些起床必备物件;资深牌友在打麻将时,激动时刻总不着急翻过来看牌面,而是通过指尖的触摸来判断手上那张麻将究竟是不是自己想要的,而且大多数情况下他们总能猜对. 显然,这些时候人类视觉没有给我们太多帮助,而是手的触觉加上多年来的经验帮助我们做出准确的判断.

最近MIT人工智能实验室(CSAIL)便利用人类这种触觉与经验(大数据)的结合, 开发了一款触觉首套,并将文章发表在了顶级期刊上.

据介绍,MIT人工智能实验室的研究人员们在巴掌大的手套上,安装了多达548个传感器.

传感器套筒分两层排布了64条导电线,横向和纵向分别32条,在两层导电线之间有一张力敏膜(对垂直力敏感的薄膜).这些线交叉的548个点,每一个都是压力传感器.当这些点被按压时,交叉点处薄膜的电阻会变小,电极阵列就能进行感知.

这个神奇手套名为"可伸缩触觉手套'(scalable tactile glove,STAG),使用柔性材料,可以随人手一样任意弯折而不至损伤传感器阵列.

实验人员为了验证戴上手套完全不影响人类手掌的灵活性,还用它折了一个纸飞机,并记录了触觉传感器阵列的压力变化.

浏览器版本过低,暂不支持视频播放

虽然548个传感器相比于人类手上的触觉点来说简直微不足道. 但就目前的条件来看,这些传感器作为触觉点不仅能识别所接触到物体的压力点,还能判断出物体的重量.而更为关键的,整个首套的成本造价,仅需要10美元.

MIT的研究人员将手套的输出处理成了32×32的灰度像素阵列,通过相应点位的颜色变化与和颜色深浅来判断压力的出现,与压力的大小.

这样, 研究人员戴上这款手套,拿捏不同的物体,并以每秒七帧的速度将压力图记录下来,便形成了该手套触摸物体时强大的数据集. 然后,神经网络将半随机帧与特定的夹点相匹配,直到建立了一个物体的完整图片.这与人们通过在手中滚动物体来识别物体的方法非常相似.通过使用伴随机图像,可以给网络提供相关的图像集群,因此不会在无关数据上浪费时间.

虽然对人来说识别一个物品很容易.但对于触觉手套来说,想让它成功记住并识别出一个眼镜,便需要非常庞大的数据.

该团队从26个常见物体(如饮料罐/剪刀/网球/勺子/钢笔和马克杯)中收集了135,000个视频帧.

并且在此基础上,利用搜集来的数据集进行了反向验证.实验证明,仅仅使用该手套的触觉数据,与搜集来的数据集,AI系统识别物体的准确率高达76%.

此外,该团队还对该传感器手套的重量识别功能进行了验证. 结果显示重量在60克以内的物体大部分都能准确估计出来.

虽然目前该款产品还处于实验室阶段,但可以想象,如果它真能走向商品化,对于机器人的灵巧手和机械假肢来说都具有深远意义. 更具体来说,便是这些人造的智能工具会越来越像人.

 

更多科研论文服务,动动手指,请戳 论文润色投稿期刊推荐论文翻译润色论文指导及修改论文预审

语言不过关被拒?美国EditSprings--专业英语论文润色翻译修改服务专家帮您!

上一篇:【严正申明】关于我公司网站被恶意抄袭严正声明

下一篇:艾德思:选择期刊发表职称论文需要先了解这些  

特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

凡注明来源为“EditSprings”的论文,如需转载,请注明来源EditSprings并附上论文链接。

最热论文