分享

MIT新机器人“成精了” 能通过视觉和触觉识别事物

tata 发表于 2019-6-18 18:42:39 [显示全部楼层] 只看大图 回帖奖励 倒序浏览 阅读模式 1 1033
CSAIL博士生、关于该系统的新论文主要作者李云珠(音译)表示:“通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。” c2480d7abace12298a06307764d0b64c.jpg

腾讯科技讯 6月17日消息,据外媒报道,对于人类来说,很容易通过观察某个物体来判断其外观,或者通过触摸它来判断它给人的感受,但是这对机器来说是可能是个巨大的挑战。现在,美国麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)开发的一种新机器人,正试图获得人类的视觉和触觉能力。   
CSAIL团队使用KUKA机器人手臂,并添加了一种名为GelSight的触觉传感器,该传感器是由CSAIL下属泰德·阿德尔森(Ted Adelson)团队开发。GelSight收集的信息会被传输给人工智能(AI),以便后者能够理解视觉信息和触觉信息之间的关系。   
   为了教授AI如何通过触摸来识别物体,CSAIL团队录制了12000个视频,记录了200个物体,如织物、工具以及被触摸的家居物品。这些视频被分解成静态图像,AI使用这个数据集来连接触觉和视觉数据。   
CSAIL博士生、关于该系统的新论文主要作者李云珠(音译)表示:“通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。”   
目前,机器人只能在受控环境中识别物体。下一步是建立更大的数据集,这样机器人就可以在更不同的环境下工作。   
   加州大学伯克利分校博士后安德鲁·欧文斯(Andrew Owens)表示:“这种方法可能对机器人非常有用,因为它们需要回答这样的问题:‘这个物体是硬的还是软的?’或者‘如果我用手把这个杯子举起来,我的抓力会有多好?’这些都是非常具有挑战性的问题,因为信号是如此的不同,而MIT的模型已经显示出很强的能力。”(腾讯科技审校/金鹿)

回复

使用道具 举报

已有(1)人评论

跳转到指定楼层
Erica 发表于 2022-1-12 01:59:00
<script type="text/javascript">var jd_union_pid="608851640355979331";var jd_union_euid="";</script><script type="text/javascript" src="//ads-union.jd.com/static/js/union.js"></script>
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则