奥多码,点击查看详情 97CDN云盾,点击查看详情

聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03

聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战

AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本文作者来[ r & H ~自于中国人民大学,深圳朝闻道科技有限公司以及中国6 0 )电信& [ x G t ; v *人工智能研究院。其中第一作者冯若轩为中国人民大学二年级硕士生,主要研究方向为多模态具身智能,师从胡迪教授。

引言:在机器人操纵物体的. P x 7过程中,不同传感器数据携带的噪声会对预测控制造成怎样的影响?中国人民大学高瓴人工智能学院 GeWu 实验室、朝闻道机器人和 TeleAI 最近的合作研究揭示并指出了 “模态时变性”Q % F k G o(Modality Tem] m s a Hporality)现象,通过捕捉并刻画各个模态质量随物体操纵过程的变化,提升不同信息在具? A c c身多模态交互的感知质量,可显z L l F R , A著改善精细物体操纵的表现。论文已被 CoRL2024 接收并选为 Oral Presentation。聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战

人类在与环境互动时g g [ c R展现出了令人惊叹的感官协调能力。以一位厨师为例,他不仅能够凭借直觉掌握食材添加的最佳时机,还能通过观察食物的颜色变化、倾听烹饪过程中的声音以S y H { . T i c T及嗅闻食物\ 1 w v + |的香气来精准调控火候,从而无缝地完成烹饪过程中的每一个复杂阶段。这种能力,即在执行复杂且长时间的操作任务时,灵活运用不同的感官,是建立在对任务各( F I个阶段全面而深刻理解的基础之上的。
然而,对于机器人而言,如何协调这些感官模态以更高效地完成指定的操作任务,以及如何充分利用多模态感知g l I p | V a ~能力来实现可泛化的任务执行,仍是当前尚未解决的问题。我们不仅需要使模型理解任务阶段本身,还需要从任务阶段的新角度重新审视多传感f ^ Q i 3器融合。在一个复杂的操纵任务中完成将任务划M K h l | u分为不同阶段的一系列子目标的过程中,各个模态的数据质量很可能随任务阶段而不断变化。因此,阶段转换很可能导致模态重6 : b p . [ x要性的变化。除此之外,每个阶段内部也可能存1 8 6 # h , j &在相对较小的模态质量变化。我们将这种现象总结为多传感器模仿学习$ * * ^ R w G 8 (的一大挑战:模态时变性(Modality Temporality)。然而,过去的方法很少关注这一点,– . T _ 5 W忽视了阶段理解在多传感器融合中的重要性。
本文借鉴人类的基于阶段理解的多感官感知过程,提出了一个^ / 8由阶段引导的动态多传感器融合框架| M H MS-Bot,旨在基于由粗到细粒度的任务阶段理解动态地关注具有更高质量的模态数据,从而更好地应对模态时变性的挑战,完成需要多种传感器的精细操纵任务。
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
  • 论文z C F | H 3 g }链接:https://arxiv.org/abs/2408.b P U – : d m ? G01366v2
  • 项目主页:https://gewu-lab.github.io/MS-Bot/
模态时变性
在复杂的操作任] S [ j L b务中,各传感器数据的质量可能会随着阶段的变化而变化。在不同的U V X任务阶段中,一个特定模态的数据可能对动作的预测具有重| s 9 6 P p A – x大贡献,也可能作为主要模态的P 0 [补充,甚至可能几乎不提供任何有用的信E b – |息。
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
图 1 倾倒任务的模态时变性
以上图中的倾倒任务为例,在初始的6 4 { 3 = { Y / a对齐阶段中,视觉模态对动作的预测起决定性作用。进入开始倾倒阶段后,模型需要开始利4 k o = E M用音频和触觉的反馈来确定合适的倾倒角度(倒出速度)。在保持静止阶; j % V F P段,模型主要依赖音频和触觉信息来判断已经倒出的小钢珠质量是否已经接! = ^ x J h 8近目标值,而视觉几乎不提供有用的信息。最后,在结束倾倒阶段,模型需要利用触觉E } / & m – G模态y ; & 8 & n的信息判断倾倒任务是否已经完成,与开始倾倒阶段进行区分。除阶段间的模态质量变化,各个阶段内部也可能存在较小的质量变化,) ! o h ~ c T例如音频模态在开始倾倒和结束倾倒的前期和后期具有不同的重要性。我们将这两种变化区分为粗粒度和细粒度的模态质量变化,并将这种现象总结为多传感器模仿学习中的G 4 ; b一个重要挑战:模态时变性。
方法:阶段引导的动态多传感器融合
为了应对模态时变t e n \ d t h性的挑战,我们认为在机器人@ f N h s ~ X操纵任务中,多传感器数据的融合应该建立在充分的任务阶j D n F # O l |段理解之上。因此,我们S x `提出了 MS-Botp \ K ? P x + 框架,这是一个由阶段引导的动态多传感器融合方法,旨在基于显式的由粗e o f Q m / ( [ ,到细的任务阶段理解动态地关注具有更高) K y + 5 W质量的模态数据。为了将显式的` ? \阶段理解整合到模仿学习过程中,我们首先为每个数据集中的样本添加了一个阶段( O [ U }标签,并将动作标签和阶段标签共同作为监督信号训练包含四个模块的 MS-Bot 框架(如图 2 所示):
  • 特征提取模块:该模块包含一系列单模态编码器,每个编码器都接受一段简短的单模态观测历史作为输入,并将它们编码为特征。
  • 状态编码器:该模块旨在将各模态特征和动作历史序列编码为表示当前任务状态的 token。动作历史与人类记忆相似,可以帮助指示当前所处的任务状态。我们将动作历史输入到一个 LSTM 中,并通过一个 MLP 将S + P ~ ^ \ m L B它们与模态特征编码为状态 token。
  • 阶段理解J q ] : X v @模块:该模块旨在通过将阶段信息注入状态 token 中,从而实现显式的由粗到细粒度的任务阶段理解。我们用一组可学习的阶段 token 来表示每个任务阶段,x M r w 9并通过一个门控网络(MLP)来预测当前所处的阶段,利用 Softmax 归一化后的阶段预测分数对阶段 token 进行加权v h A融合,得到当前阶段 token。门控网络的训练以阶段标签作为监督信号,对非当前阶段的预测分数进行惩罚。我们还放松了对阶段边界附近的样本上的相邻阶段分数惩罚,从而实现软约束效果,得到更平滑的阶段预测。新1 7 k ) v F \ k的注入阶段信息后的状态 toz @ ; l 4 _ken 由原状态 token 和阶段 token 加权融合得到,可以表示任务阶段内的4 4 .细粒度状态,从而对多传感器动态融合进行引导。
  • 动态融合模块:该模块根据当前任务阶段的细粒度状态动态地选择关注的模态特征。我们以注入了阶段信息的状态 token 作为 Query,h } , A将模态特征作为 Key 和 Value 进行交叉注意力(Cross Attention)。该方法根据当前任务阶段的需求,将各模态的特征动态地整合到一个融合 token 中。最后,该融合 token 输入到策略网络(MLP)中预测下一个动作。我们还引入了随机注M K ; * { + J意力模糊机制,以一定概率将各单模态特征 token 上的注意力分数替换为相同的平均值,防止模型简单地记忆与注意力分数模式对应的动作。
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
图 2 由阶段引导的动态多传感器融合框架 MS-Bot
实验结果
为了验证基于由粗到细的任务阶段理解的 MS-Bot 的优越性,我们在两个十分有挑战性的精细机器人操纵任务:倾倒和带有键槽的桩插入中进行了详f ( G ~ \ A u Y细的对比。
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
图 3 倾倒与带有键槽的桩插入任务设置
如表 1 所示,MS-Bot 在两个任务的所有设置上均优于所有基线方法。MS-Bot 在两个任务中的性能超过了使用自注意力(Self Attention)进行动态融合的w r p MULSA 基线,这f + ( !表明 MS-Bot 通过在融合过程中基于对当前阶段的细粒度状态的理解更好地分配模态权重,而@ ^ ( T没有显示阶段理解的 MULSy G W 5 ) CA 基线无法充分利用动态融合的优[ : – a {势。
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
表 1 倾倒和带有键槽的桩插入任务上的性能比较
我们还对任务完成中各个模态的注意力分数和各阶段的预测分数进行了可视化。在每个时间步,我们分别对; _ { 1 0 [ 9 P I每种模态的所有特征 token 的注意力分数进行平均,而阶段预测6 G E ^ ` O l [分数是 Softmax 归一化后的门控网络输出。如图 4 所示,MS-Bot 准确地预测了任务阶段的变化,并且得益于模型中由粗到细粒度的任务阶段理解,三个模态的注意力分数保持相对稳定,表现出明显5 . ? L , Q $ } (的阶段W 0 c \ j c W # ~间变化和较小的阶段内调整。S 0 W n e /
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
i E [ u c 5 6 c q 4 各模态注意力分数和阶段预测分数可视化
为了l r $ 91 Q h M证 MS-Bot 对干扰物的泛化能力,我们在两个任务中都加入了视觉干扰物。在倾倒任务中,我们将量筒的颜色从白色更改为红色。对于桩插入任务,我们将底座颜色从黑色更改为绿色(“6 6 r T oColor”),并在底座周围放置杂物(“MesF – . [ . @ b 1 js”)。如表 2 所示,MS-Bot 在各种有干扰物的场景中始终保持性能优势,这是因为 MS-Bot 根据对当前任务阶段的理解动态地分配模态权重,从而减少视觉噪声对融合特征的影响,而基线方法缺乏理解任[ v ; e C |务阶段并动态调整模态权重的能力。
聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
表 2 含视觉干扰物场景中的性能比较
总述
本文从任务阶段的视角重新审y G ! k f ,视了机器人操纵任务中的多传感器融合,引入模态时变性的挑战,并将由] j t J j V G o 7子目标划分的任务阶P Z m Y I A段融入到模仿学习过程中。该研究提出了 MS-T a 2 Z ^ – }Bot,一种由阶段引导的多传感器融合方法,基于由粗到细粒度的阶段理解动态地关注质量更高的模态。我们相信由显式阶段理解引导的多传感器融合会成为一种有效的多传A h W感器机器人感知范式,并借此希望能够激P 9 T C \ h 7 –励更多的多传感器机器人操纵的相关研究。

以上就是聚焦「视听触感官」协同配合的具身精细操纵,人大胡迪团r ` w R T d G + 9队领衔探索机器人模态时变性挑战的详细内容6 I R L \ g ^ : [

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/118477.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2024-12-26 13:17
下一篇 2024-12-26 13:17

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。