学术资讯 » 学界研圈

  • 首 页
  • 期刊选题
  • 期刊点评
  • 期刊大全
  • 学人博客
  • 编辑征稿
  • 投稿选刊
  • 投稿群聊
  • 学术会议
  • 万维读书
  • SCI/E期刊
  • SSCI期刊
  • AHCI期刊
  • 卡内基梅隆大学联合Meta开发RoboAgent 可自主学习 拥有3岁儿童操控能力

    阅读: 2023/8/23 15:00:24

    以下文章来源于机器人大讲堂 ,作者李鑫

    近日卡内基梅隆大学和Meta的研究人员发布了一款名为RoboAgent的人工智能代理机器人,它利用被动观察和主动学习,使机器人获得与幼儿同等的操控能力。

    我们知道人类是社会性动物,从小就开始互相学习。婴儿会敏锐地观察他们的父母、兄弟姐妹或看护人。他们通过观察、模仿和回放所看到的事物来学习技能和行为。

    婴儿学习和探索周围环境的方式启发了卡内基梅隆大学和Meta公司的研究人员,他们开发出一种新方法,教机器人如何同时学习多种技能,并利用这些技能来解决看不见的问题和日常任务。研究人员着手开发一种人工智能机器人代理(RoboAgent),其操控能力相当于一名3岁的儿童。

    卡内基梅隆大学计算机学院机器人研究所兼职教师Vikash Kumar表示:“RoboAgent 是迈向通用机器人代理的重要里程碑,通用机器人代理具有高效的学习能力,在新情况下能发挥有效作用,并能随着时间的推移扩展自己的行为。”

    "目前的机器人都是高度专业化的,并针对个别任务进行单独训练。与此相反,我们的目标是创造一个单一的人工智能代理,它能够在看不见的场景中展现各种技能。RoboAgent 像人类婴儿一样学习--利用丰富的被动观察和有限的主动游戏相结合的方式"。

    RoboAgent 从抽屉当中抓取黄油出来

    RoboAgent 可以在不同场景中完成 12 种操作技能。这项研究表明,机器人学习平台可以适应不断变化的环境。与以往的研究不同,该团队在真实环境中展示了他们的工作,而不是模拟环境,而且使用的数据也比以往的项目少得多。

    机器人研究所副教授Abhinav Gupta说:"机器人代理的技能相比其他产品复杂得多。"我们已经展示了比现实世界中单一机器人代理所能实现的任何技能都更加多样化的技能,其效率和对未知场景的泛化规模都是独一无二的"。

    RoboAgent拥有很好的适应能力

    该团队的代理通过自我体验和互联网数据中的被动观察相结合的方式进行学习。就像父母引导孩子一样,研究人员通过任务远程操作机器人,为其提供有用的自身训练。

    "机器人学博士生Homanga Bharadwaj说:"这种训练模式源于我们新颖的策略架构,该架构允许我们的代理在经验有限的情况下进行推理。"RoboAgent根据指定的文本/视觉目标采取行动,通过预测和汇总时间块动作方面的决策,而不是通常使用的按时间步行动"。

    机器人主要从自身经验中学习,而不是被动地从周围发生的事情中学习。这种与生俱来的对周围环境的盲目性,从根本上限制了机器人所接触的经验的多样性,也限制了它们适应新环境的能力。为了克服这些限制,RoboAgent通过互联网上的视频进行学习--就像婴儿通过被动观察周围环境来获取知识和行为一样。

    "机器人代理利用这些视频中包含的信息,学习人类如何与物体互动以及如何使用各种技能成功完成任务的知识和经验,"机器人学博士生Mohit Sharma表示。"通过观察多个场景中的类似技能,它还能了解哪些是完成任务所必需的,哪些是不必要的。当遇到未知任务或未知环境时,它就会利用这些此前学习过的经验来进行判断"。

    "机器人研究所助理教授Shubham Tulsiani认为:"具有这种学习能力的代理让我们更接近于通用机器人,它可以在各种未知环境中完成各种任务,并随着积累更多经验而不断进化。"RoboAgent 可以使用有限的域内数据快速训练机器人,同时主要依靠互联网上大量可用的免费数据来学习各种任务。这可以让机器人在家庭、医院和其他公共场所等非结构化环境中发挥更大作用。"

    目前该团队正在开源其训练有素的模型、代码库、硬件驱动程序,以及最值得注意的是在这项研究中收集到的全部数据集。研究.RoboSet是商品硬件上最大的公开可用机器人数据集。该团队希望,这将使其他人能够重复使用、改编并将其发扬光大,从而逐步形成真正的基础通用机器人代理。

    转自:“arXiv每日学术速递”微信公众号

    如有侵权,请联系本站删除!


    浏览(169)
    点赞(0)
    收藏(0)
  • 上一篇:物理学家67年前预测的「恶魔」现世登Nature:偶然在「假」高温超导体中发现

    下一篇:最优化问题中步长越大、收敛速度越快,梯度下降算法数十年的传统思路被打破

  • 首页

  • 文章

  • 期刊

  • 帮助

  • 我的

版权所有 Copyright@2023    备案号:豫ICP备2021036211号