Facebook研究机器人,是打的什么算盘?
- 2019-05-27 11:05:211296
当次听到世界的社交网络公司不是专心发展搜索机制,而是正在进行机器人研究的时候,确实让人感到十分惊讶。
Facebook是一个有着众多竞争优先权的大型组织,虽然这些机器人不会直接影响用户的Facebook体验,但公司从它们身上学到的东西可能会对多方面产生影响。
机器人技术作为Facebook的一个全新研究领域,对人工智能和前沿研究的依赖是*的。可以说人工智能的机制控制着机器人的各项机能,从相机效果到限制内容的自动调节。
人工智能和机器人是自然重叠的领域,其中一个领域的进步往往也能在另一个领域带来全新发展。而Facebook对在现实和社交媒体世界中使用人工智能完成任务有着十分浓厚的兴趣,因此它希望涉足机器人技术以挖掘人工智能的洞察力也就不足为奇了。
那么,它目前宣布的机器人技术项目有哪些广泛的应用呢?
从零开始学走路
行走是一个非常复杂的动作,尤其是有六条腿的时候,就像这个实验中使用的机器人。
研究人员可以设定它应该如何移动双腿向前,转身等等,但这有点像作弊,不是吗?毕竟我们人类必须自己学习行走,并没有什么说明书或设置可以导入。
因此,研究小组打算让机器人自学走路。这其实并不是一项新型的研究,很多机器人学家和人工智能研究人员都参与其中。
通过给机器人一些基本的优先权,比如只要它向前移动就可以获得相应“奖励”。但没有真正操纵其肢体的设置,团队只是不断让它尝试不同的方式,慢慢地学习并改进它移动的模型。目标是让机器人从零开始学习走路到能够稳定行走的时间能够缩短到数周到数小时不等。
这对Facebook有什么用呢?
*,Facebook是一个庞大的数据库,结构相当复杂。虽然学习管理一个数据网络与学习管理一个机器人是非常不同的,但是系统在给定一些简单规则和目标后,短时间内自学基础知识的方式是相通的。
学习人工智能系统如何自学,以及如何消除诸错误的优先级、规则欺骗、奇怪的数据存储习惯等障碍,对于那些在现实和虚拟世界中的算法来说是很重要的。
也许下一次Facebook需要在其平台上监控人道主义危机时,有助于监控的人工智能模型将从这里出现的自动学习机器人中得到启发。
利用好奇心
这项研究听上去并不是那么直观,但每个人都有一定程度的好奇心,虽然俗话说:好奇心害死猫。
但大多数时候它是一种驱使我们更有效地学习的动力,Facebook将好奇心的概念应用于执行各种日常任务的机械臂。
给机械臂灌输“好奇心”似乎很奇怪,但在这种情况下,这个名词的意思是说,负责手臂的人工智能,无论是观察还是决定如何抓握,还是确定移动速度的过程,都被赋予了减少动作不确定性的动机。
这意味着很多事情:也许在识别物体的时候稍微扭转一下相机,会让它有一点更好的视野,提高它识别物体的信心;也许它会先查看目标区域,来检查距离并确保没有障碍物。
不管是什么情况,给予人工智能自由寻找增强信心的行动,终可能会让它更快地完成任务,即使在开始时,它可能会因为“好奇心”放慢进程。
这对Facebook有什么用呢?
Facebook在计算机视觉方面一直走在前列,正如我们在它的相机和图像处理程序以及Portal等设备上看到的那样,Potal会用它的“脸”跟着用户在房间里转来转去。
虽然听上去有些惊悚,但是好奇心对于这些需要了解他们所看到或感觉到的环境才能正常工作的应用程序来说都是至关重要的。
任何在应用程序或设备上运行的摄像头,比如Facebook上的摄像头,都在不断地分析它所看到的图像,以获取有用的信息。
当一张脸进入画面时,十几个新的算法就会同时启动并开始工作。如果有人举起一个物体,摄像头就会忙着分析:它有文字内容吗?需要翻译吗?有二维码吗?背景有多远?
如果设备要及时完成这些任务,就会产生CPU使用率峰值、可见延迟以及用户或系统工程师不希望出现的种种情况。
相反,如果人工智能助理在对场景感到不确定性时,发挥它的好奇心去检查这些东西,确定分析物体的优先级,是个相当不错的折衷办法。
通过触摸感知
尽管视觉很重要,但它不是我们或机器人感知世界的方式。许多机器人都配备了运动、声音和其他形式的传感器,但对物体的实际接触相对较少。我们可以把它归因于缺乏良好的触觉接口。
尽管如此,Facebook的研究人员还是想研究使用触觉数据代替视觉数据的可能性。
仔细想想,这完全是正常的,就像有视觉障碍的人用触觉来了解周围的环境,获取关于物体的细节。
因此,Facebook的研究人员部署了一个人工智能模型,机器人根据视频来决定采取什么行动,但不是实际的视频数据,而是给它输入高分辨率的触摸数据。
结果表明,该算法并不真正关心它是否像我们平时观察世界的图像,只要数据是以视觉方式呈现的,例如作为触觉传感器上的压力图,它就可以像图像一样分析该模式。
这对Facebook有什么用呢?
虽然Facebook对用户接触并没有多大兴趣。但这不仅仅是接触的问题,而是跨模式应用学习。
试想你次看到两个不同的物体,闭上眼睛,单靠触摸就可以很容易地分辨出来。为什么会这样?
因为当你看到某个东西时,你不只是观察到它的样子,还构想了一个内部模型来表示它,包含了多种感官和视角。
类似地,人工智能助理可能需要将其学习的内容从一个领域转移到另一个领域,比如说听觉数据告诉握力传感器如何握紧物体,或者视觉数据告诉麦克风如何分离声音。
现实世界是一个复杂的环境,这里的数据更嘈杂,信息量更大。无论数据类型如何,都能够利用这些数据对于可靠理解和与现实交互非常重要。
所以你会发现,这些研究本有趣,而且事实上也很重要。正如描述这项研究的博客文章所言:“我们专注于使用机器人技术,这不仅会生产出更有能力的机器人,还将在未来数年或者数十年内挑战人工智能的极限。如果我们想要更接近像人类那样思考、计划和推理的机器,那么我们需要构建人工智能系统,使其能够在多种场景中自主学习,不仅仅是在虚拟的数字世界。”
随着各大网络社交媒体不断扩大其影响力,其应用程序和服务的的范围涉及日常生活的方方面面,它对人工智能助力的要求也就越来越复杂。
虽然我们不会很快看到一个“Facebook机器人”,但未来可期。