新闻 > 科教 > 正文

给机器人配AI大脑!谷歌发布视觉语言行动模型

谷歌正在把先进的人工智能(AI)模型植入机器人,给机器人配一个 AI大脑

美东时间7月28日周五,谷歌公司宣布推出应用于机器人领域的新产品——名为 Robotics Transformer2(RT-2)的 AI模型。它是一种全新的"视觉-语言-行动"(VLA)模型,可以帮助训练机器人理解扔垃圾等任务。

谷歌介绍,RT-2基于 Transformer模型,根据互联网上的文本和图像进行训练,直接指示机器人执行动作。就像用语言模型通过网络文本训练 AI学习人类社会的思想和概念一样,RT-2也可以通过网络数据,将相关知识告知机器人,指导机器人的行为。

谷歌举例称,如果我们要让以前的机器人系统做出扔垃圾的动作,就必须明确训练机器人懂得区分何为垃圾,以及捡起垃圾、扔掉它这些动作。而 RT-2能将网上的相关知识传给机器人,让机器人无需明确的训练,就懂得垃圾是什么,甚至即便从未受过如何扔垃圾的训练,也知道怎么扔垃圾。

谷歌表示,RT-2具有将信息转化动作的能力,借助它,机器人有望更快适应全新的情形和环境。

因为在6000多次测试 RT-2模型的机器人试验后,谷歌的团队发现,面对训练数据中已有的任务、或者说"见过"的任务,RT-2和它的前代 RT-1一样发挥功能,没有差别。而在新颖的、之前从未见过的任务情形中,RT-2的性能几乎提高一倍,成功率达到62%,远超 RT-1的32%。

换句话说,通过 RT-2,机器人能像人类一样学习更多内容,将学到的概念应用于全新的情境中。

谷歌称,RT-2显示出超越其所接触机器人数据的推广应用能力和语义、视觉理解能力,包括解释新的命令,并通过基本的推理响应用户的指令,比如关于物体的类别和高层次描述的推理。

谷歌的研究还表明,通过结合思维链的推理,RT-2能执行多阶段的语义推理,比如判断哪种物体可以临时用作锤子,哪一类饮料最适合疲劳的人。

有媒体周五称,谷歌目前没有立即计划大规模发布或者出售应用 RT-2的机器人,但最终,这些机器人可能用在仓库或者用作家庭助理。

责任编辑: 夏雨荷  来源:全天候科技 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2023/0730/1934030.html