天天看点

剑桥大学在文明5游戏中设定AI毁灭世界,AI突破即时策略游戏防线?

最近,剑桥大学生存风险研究中心(The University of Cambridge’s Centre for the Study of Existential Risk,CSER)做了一件防止发生世界末日的事:在游戏文明5中实验让AI毁灭人类。

文明5是一款即时策略(RTS)游戏,玩家带领一个历史悠久的民族不断升级打仗,与其他国家在文化、科学、军事和宗教等领域展开全方面竞争。

CSER发布的是一个免费的MOD,最终将文明5变成一场阻止“天网”的比赛。

在这个MOD中,游戏玩家可以利用人工智能快速发展,但如果不建设人工智能安全实验室,超级AI就会毁灭人类文明。

成败都在超级智能MOD

如果游戏玩家安装了CSER免费的超级智能MOD,科技胜利的目标将从发射航天器到半人马座阿尔法星(Alpha Centauri),变成建立一个安全可靠的高级AI。

游戏玩家不断在文明5中进入更高级的时代,而一旦进入现代时代,玩家需要投入大量的资源来建设人工智能安全实验室,并打击流氓AI元素的影响。如果玩家在利用超级智能获得技术进步的同时能做好AI的检查工作,那么就会取得胜利,最终将离开这个世界走向乌托邦;但如果让流氓AI失去控制,超级智能就会摧毁人性,人类建立的文明就会失败。

文明5中的甘地是个“核弹狂魔”,但跟不受控制的人工智能比起来,就是小巫见大巫。

剑桥大学在文明5游戏中设定AI毁灭世界,AI突破即时策略游戏防线?

CSER的研究Shahar Avin在接受The Verge的采访时表示,玩这个MOD的确能激励他更深入地思考AI的危险。 “假设你陷入了两个激进文明之间的纷争,管理人工智能的风险就会变得非常困难,因为你的资源专注于打仗。”Shahar Avin说。

文明5甚至已被纳入高中课程作为学习工具——虽然这可能并不是了解历史的最好方式,但是对于国家之间的基本经济、发展和外交能带来很多教训。

尽管AI在游戏中处理外交时的表现非常糟糕,但就模拟国与国之间完全误解的后果而言,它又是相当准确的。

AI尚未突破即时策略游戏防线

AI不仅在处理文明5中的外交表现糟糕,实际上在即时策略游戏中,整体能力尚不如人类。

在去年的星际争霸AI竞赛中,Facebook悄悄地派出一款叫做CherryPi的AI bot,最终CherryPi在28场比赛里仅排第6。国外科技网站Engadget甚至以Facebook“被业余玩家狂虐”(Facebook’s 'StarCraft' AI was defeated by hobbyists)为题做了报道。

虽然AI在围棋、德州扑克等策略游戏中战胜了人类,但在即时策略游戏始终不能突破人类防线。这由以下几点决定:

1、RTS游戏重在“即时”,每个玩家都在较少的时间内思考行动计划,AI做不到短期决策。在星际争霸中游戏每秒执行24帧,这意味着玩家可以在比赛前每42ms一样快状态变化。而对于棋牌类游戏而言,玩家有几分钟后的时间来思考。

2、AI无法应对突发事件。除了打仗外,玩家还需要考虑经济、局势、侦查等方方面面,不断做出安排。更重要的是,AI在处理突发能力上的表现不足,这也是AI在文明5处理外交时表现糟糕的原因。

3、游戏的公平性限制条件。由于机器在速度和频率上高出人类玩家,因此在某些游戏中,AI被限制在特定条件下与人类“公平”对决的,即APM(每分钟操作数)等操作指标不能超过人类血肉之躯的极限。

总体而言,AI更强调长期规划和推理能力。

不过,虽然AI无法占领即时策略游戏这块高地,CherryPi也未能给Facebook带来像DeepMind一样的赫赫战绩,但人类应该为此庆幸。

试想,如果AI在即时策略游戏中完爆人类,说明AI在政治、军事、社会等各个方面具备了接管能力,如果再加上人类又毫无人工智能安全管理意识,CSER创造的那种最坏结局恐怕是会发生的。

原文发布时间为:2018-01-08

本文作者:张乾

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号

继续阅读