发布者认证信息(营业执照和身份证)未完善,请登录后完善信息登录
 终于理解谷歌 Google X 开源抓取机械臂,无需人工标注就能一眼找到目标零件,正确率达 87.8% - 最新消息 - 客集网
Hi,你好,欢迎来到客集网
  • 产品
  • 求购
  • 公司
  • 展会
  • 招商
  • 资讯
  • 解梦
当前位置: 首页 » 资讯 » 鞋服家居 找商家、找信息优选VIP,安全更可靠!
终于理解谷歌 Google X 开源抓取机械臂,无需人工标注就能一眼找到目标零件,正确率达 87.8% - 最新消息
发布日期:2023-08-02 14:01:14  浏览次数:5

机械臂常见,但你见过这么聪明的吗?

从工作台上一眼找到合适的螺母、稳稳拿住:

再送到目标螺杆上,整个动作一气呵成:

即使是相似度极高的两个部件,也能准确区分并“揪”出正确的那个:

要知道,平时我们自己做实验、或是拼装没见过的机械零件时,面对各个相似的零件都可能拿错,更何况机器人。

(想象一下拼装乐高零件的痛苦)

但这只机械臂没有使用过任何人工标注,就能从模拟器立刻迁移到真实世界,同时泛化到机器人没见过的新物体上,准确率能达到 %。

这就是谷歌 X 最近开源的类别级机械臂 CaTGrasp。

论文一作为华人博士 Bowen Wen,现就读于罗格斯大学计算机系,本科毕业于西安交通大学。

目前,这项研究已经登上机器人领域顶会 ICRA 2022。

让机械臂自己总结抓取经验

这项研究的提出,主要是想要解决普通工业场景中,对不同机械零件进行分类的问题。

实际情况下,机械臂难免会遇到自己不认识的新零件,如果只依靠数据集、不会举一反三可不太行。为了不依赖数据集和人工标注,研究人员想到了在模拟器内进行训练的办法。

通过在模拟器内不断训练试错,机械臂就能自己总结出一套经验,并将它归结成热力图表征。

在这里,研究团队提出了一种新的表示方法:Non-Uniform Normalized Object Coordinate Space (NUNOCS)。

统一的 NUNOCS 表征能够让同一类物体的信息整合到一起。

给定一个物体模型,这种方法能让所有的点沿着每个维度都归一化。归一化让不同维度之间的特征在数值具有一定比较性,从而可以对不同物体分类。

最终 NUNOCS 能够将不同物体按照类别划分,并能够给出一个代表模板。

在这个过程中,它是把距离所有其他模型的倒角距离最小的物体,设定为模板。

(倒角距离:是一种对于图像的距离变换,对于一个有特征点和非特征点的二值图像,此距离变换就是求解每一个点到最近特征点的距离)

这些模板将成为之后整合热力图表征、存储抓取姿态分部的密码本。给出点云输入后,NUNOCS Net 就能预测点云在 NUNOCS 空间中的位置,这一网络基于 pointnet 设计。

(点云:逆向工程中通过测量仪器得到的产品外观表面的点数据合集)

根据确定点云和预测到的点云,二者最终可以求解得到类别级的 6D 转换和 3D 的维度变换,从而得到更为准确的密集点云对匹配。

比如下图中,相同颜色表示相互匹配,NUNOCS 方法优于此前的 NOCS 方法。

在掌握了抓取秘籍后,还要保证每次抓取都能稳定释放“功力”。

因此,研究人员对每个抓取姿态进行 50 次随机的微小扰动,并记下了成功的次数,得到连续的概率分布。

然后根据上一步整理好的不同模型模板,将抓取姿态也进行分类整合。

测试时,一旦遇到了没接触过的情况,就可以将之前归结好的抓取姿态分布迁移到新颖的物体空间里,从而得到更为全面的抓取姿态采样。

抓取姿态和模拟器中得到的概率分布,可以分别作为输入和标签,用来训练神经网络。

最后,通过自监督训练学习,在进行过足够多的抓取姿态模拟后,机械爪和物体的接触经验累计就能得到如下这样的热力图。

而且过程中所有模块都能从合成数据集上训练,之后能直接迁移到真实世界的场景中。

从实验结果来看,模拟情况下这一方法的平均成功率有 %,抓取次数大概为 600 次。

实际情况下的成功率为 %。

团队介绍

本项研究的一作为罗格斯大学计算机专业博士生 Bowen Wen,目前正在 Google X 实习。

他师从 Kostas Bekris 教授,研究方向包括机器人感知,计算机视觉。

此前他还在 Facebook Reality、Amazon Lab 126 和商汤实习过。本科毕业于西安交通大学,硕士毕业于俄亥俄州立大学。

目前该项目的所有模拟器环境、数据集生成、训练和实验均已开源。

GitHub 地址:

/wenbowen123/catgrasp

论文地址:

/abs/23

VIP企业最新发布
最新VIP企业
背景开启

客集网是一个开放的平台,信息全部为用户自行注册发布!并不代表本网赞同其观点或证实其内容的真实性,需用户自行承担信息的真实性,图片及其他资源的版权责任! 本站不承担此类作品侵权行为的直接责任及连带责任。

如若本网有任何内容侵犯您的权益,请联系 QQ: 1130861724

网站首页 | 信息删除 | 付款方式 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 (c)2014-2024 Rights Reserved 鄂公网安备42018502007153 SITEMAPS 联系我们 | 鄂ICP备14015623号-21

返回顶部