设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

谷歌发布视觉语言动作模型 RT-2,可以让机器人学会扔垃圾

2023/7/28 22:26:18 来源:IT之家 作者:江程(实习) 责编:江程

IT之家 7 月 28 日消息,谷歌今日推出了一种新的人工智能(AI)模型 Robotics Transformer2(RT-2),可以帮助训练机器人理解扔垃圾等任务。

图片 1

▲ 图源 谷歌 DeepMind 官网

谷歌表示,RT-2 是一种视觉语言动作模型,可将互联网上采集的信息和图像转化为机器人可理解的动作,从而帮助提升机器人的学习能力。

虽然像捡垃圾这样的任务对于人类来说听起来很简单,但机器人需要了解一系列知识后才能学习。例如,机器人必须首先能够识别哪些物品构成垃圾,然后要知道如何将其捡起来并扔掉。

RT-2 允许机器人使用来自网络的知识来帮助它理解如何完成任务,而不是为机器人编程来完成这些特定的任务。即使机器人没有明确地接受过确切步骤的训练,也能通过 RT-2 学会完成新的任务。

据《纽约时报》报道,谷歌近期没有计划发布或销售采用这项新技术的机器人,但最终这项技术或许可以用于仓储物流或家庭助理机器人。

IT之家附上 RT-2 模型详细说明点此前往

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 辣品 - 超值导购,优惠券 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 魔方 云日历 酷点桌面 Win7优化大师 Win10优化大师 软媒手机APP应用