分享

DeepMind盯上《星际争霸》,人类又要被AI打脸了?

 造就Talk 2020-07-21

还记得阿法狗(AlphaGo)吗?这个人工智能(AI)系统在人机大战中击败了韩国国手李世石。现在,该系统的缔造者DeepMind又盯上了下一个目标,它和围棋有着天壤之别。

谷歌(Google)旗下的这家AI研究公司正在与游戏开发商暴雪(Blizzard)合作,准备挑战即时战略游戏《星际争霸2》。

作为世界上最流行的电子竞技游戏之一,《星际争霸2》符合DeepMind想要展开有趣挑战的很多条件。不仅这款游戏的顶尖玩家能轻松地吊打最高难度的电脑机器人,而且该游戏还为DeepMind团队提供了新的探索领域。

最重要的是,《星际争霸2》是一款充满了隐藏信息的游戏。每位玩家在地图的对角开始游戏,他们的任务是建造基地、发展科技、生产士兵和攻击对手,这些要素的平衡取舍都要依据对手的动向而定。

但玩家只能看见单位周围的区域,地图的其他区域被隐藏在“迷雾”中。

“玩家必须派遣单位侦察不可见的区域,以便获取对手信息,然后在很长时间内记住那些信息。”DeepMind在博客文章中写道,“这使得挑战变得更加复杂,因为地图只是部分可见,明显不同于完全信息博弈,比如象棋和围棋。这类即时战略游戏,双方玩家同时进行操作,因此必须迅速且有效地作出每个决定。”

“想玩好星际,AI必须有效利用记忆,制定长远计划,并根据新信息调整计划。”

但AI确实拥有一些先天优势。


衡量星际玩家水平高低的一个指标是“手速”,实质上就是每分钟的操作次数(APM)。人工智能没有手指和肌肉,不会感到疲劳,因此APM自然能超过人类玩家,这可能导致人工智能不是胜在高明的战术,而只是胜在更快的反应。

因此,DeepMind将把其人工智能系统限定在该公司研究员奥里奥尔·温亚尔斯(Oriol Vinyals)所说的“高水平人类”手速。这也有助于确保AI不是把处理能力用于暴力碾压级别的细节操作,而是专注于关键的战略判断。

温亚尔斯在很早以前就和星际结缘。2010年,在加州大学伯克利分校读本科时,他开发了一种电脑机器人,玩《星际争霸1》的水平超过了游戏内置的所有电脑机器人。

但那种机器人只是简单的脚本程序,它遵循的每条规则都是由人工制定,类似于阿法狗出现之前的AI围棋程序。和围棋一样,在《星际争霸2》中,DeepMind将专注于机器学习,设计一种能通过自学玩好这款游戏的AI。

这次,该公司得到了星际争霸系列开发商暴雪的协助。那种帮助也将提供给其他想要展开同样挑战的AI研究者。在2017年第一季度,暴雪将更新《星际争霸2》,为该游戏引入新的AI研究环境,创建应用程序接口,让开发者可以从游戏中提取额外信息,用来教他们的AI系统玩这款游戏。
 

DeepMind的最终目标,仍然是打造一种能像人类那样玩星际的AI,一种只是看着屏幕图像、通过键盘和鼠标来操纵单位的电脑系统。

但就短期而言,DeepMind用简化视图来训练其系统要更加容易得多。简化视图提供常规地图和迷你地图的低分辨率图像,并把特征分解到不同的层,明确显示出地形高度、单位类型和血量等细节。

DeepMind和暴雪的合作是双向的。暴雪希望利用相关发现来改善自己的游戏。

“AI能否玩得更好,甚至根据玩家的操作做出相应调整?”暴雪《星际争霸2》首席制作人克里斯·西加提(Chris Sigaty)说,“我们能否像教AI那样教玩家?关于AI对我们意味着什么的问题,还存在很多猜测,但我们敢肯定它将帮助我们改善这款游戏。”

但这样做的目标不只是改善游戏。

温亚尔斯说,DeepMind的终极目标是利用AI解决现实问题,而《星际争霸2》是朝这个目标迈进的下一步。

完全信息的缺乏,写实(一定程度上的“写实”)的画面,对记忆力甚至某种想象力的要求,这些都对AI理解现实世界非常重要。他说,游戏比现实世界更容易帮助AI理解现实世界。

“你可以快速地运行游戏,有明确的得分或胜负。我们也能从这款游戏中获得很多启示,而展开同样挑战的其他人可以改进我们的研究。”


DeepMind把注意力转向围棋的时候,该公司在一年内就击败了当时最出色的AI围棋程序,在两年内战胜了最优秀的人类棋手。

但温亚尔斯和西加提都不愿预测AI征服《星际争霸2》需要多长时间。

“从科研的角度来看,我们也许取得了很大进展,但对于我们能否打败最强玩家的问题,我觉得现在下结论还为时尚早。”温亚尔斯说。

翻译:于波

来源:The Guardian

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多