最近,谷歌的人工智能子公司DeepMind连续发布了三篇论文,探讨了如何使用“强化学习”的方法来教导AI,使它能在不熟悉或复杂的环境里自主导航运动路线。

这是一项在虚拟世界中对人工智能进行的测试,运动智能(Motor Intelligence)学习如何控制和协调柔韧的身体在各种复杂环境中解决任务,涵括了计算机动画(Computer Animation)和生物力学(Biomechanics)等多个领域的知识。

有一天将这个这项程序加载到实体机器人身上,同样可以驱动机器人做出相同的反应。
从视频中可以看到,棒状机器人会根据特殊地形完成不同的动作,包括跳跃、转向、蹲伏等。而这些动作并不需要编写特定的计算机程序,在身体与环境交互的过程中,棒状机器人能够逐渐建立最佳的行为模式,最终,在没有特殊指示的情况下发展出了复杂技能。这一方法可应用于训练系统中多个不同的仿真身体。

DeepMind 研究团队指出,其未来的工作将主要集中在指导以上方案“ 在更为复杂的情况下协调做出更为广泛的动作范围 ”。事实上,单纯的模拟人类行为并不是 DeepMind 团队的最终目的,它们只是想用创造性的解决方案来克服现有的 AI 机器人运动障碍,他们认为机器人甚至可以摆脱人类的运动模式,创造出新的运动行为。只是大多数时候,研究团队认为能提供的最有效的办法,依然不是最自然的。