最近,剑桥大学生存风险研究中心(The University of Cambridge’s Centre for the Study of Existential Risk,CSER)做了一件防止发生世界末日的事:在游戏文明5中实验让AI毁灭人类。
文明5是一款即时策略(RTS)游戏,玩家带领一个历史悠久的民族不断升级打仗,与其他国家在文化、科学、军事和宗教等领域展开全方面竞争。
CSER发布的是一个免费的MOD,最终将文明5变成一场阻止“天网”的比赛。
在这个MOD中,游戏玩家可以利用人工智能快速发展,但如果不建设人工智能安全实验室,超级AI就会毁灭人类文明。
成败都在超级智能MOD
如果游戏玩家安装了CSER免费的超级智能MOD,科技胜利的目标将从发射航天器到半人马座阿尔法星(Alpha Centauri),变成建立一个安全可靠的高级AI。
游戏玩家不断在文明5中进入更高级的时代,而一旦进入现代时代,玩家需要投入大量的资源来建设人工智能安全实验室,并打击流氓AI元素的影响。如果玩家在利用超级智能获得技术进步的同时能做好AI的检查工作,那么就会取得胜利,最终将离开这个世界走向乌托邦;但如果让流氓AI失去控制,超级智能就会摧毁人性,人类建立的文明就会失败。
文明5中的甘地是个“核弹狂魔”,但跟不受控制的人工智能比起来,就是小巫见大巫。
CSER的研究Shahar Avin在接受The Verge的采访时表示,玩这个MOD的确能激励他更深入地思考AI的危险。 “假设你陷入了两个激进文明之间的纷争,管理人工智能的风险就会变得非常困难,因为你的资源专注于打仗。”Shahar Avin说。
文明5甚至已被纳入高中课程作为学习工具——虽然这可能并不是了解历史的最好方式,但是对于国家之间的基本经济、发展和外交能带来很多教训。
尽管AI在游戏中处理外交时的表现非常糟糕,但就模拟国与国之间完全误解的后果而言,它又是相当准确的。
AI尚未突破即时策略游戏防线
AI不仅在处理文明5中的外交表现糟糕,实际上在即时策略游戏中,整体能力尚不如人类。
在去年的星际争霸AI竞赛中,Facebook悄悄地派出一款叫做CherryPi的AI bot,最终CherryPi在28场比赛里仅排第6。国外科技网站Engadget甚至以Facebook“被业余玩家狂虐”(Facebook’s 'StarCraft' AI was defeated by hobbyists)为题做了报道。
虽然AI在围棋、德州扑克等策略游戏中战胜了人类,但在即时策略游戏始终不能突破人类防线。这由以下几点决定:
1、RTS游戏重在“即时”,每个玩家都在较少的时间内思考行动计划,AI做不到短期决策。在星际争霸中游戏每秒执行24帧,这意味着玩家可以在比赛前每42ms一样快状态变化。而对于棋牌类游戏而言,玩家有几分钟后的时间来思考。
2、AI无法应对突发事件。除了打仗外,玩家还需要考虑经济、局势、侦查等方方面面,不断做出安排。更重要的是,AI在处理突发能力上的表现不足,这也是AI在文明5处理外交时表现糟糕的原因。
3、游戏的公平性限制条件。由于机器在速度和频率上高出人类玩家,因此在某些游戏中,AI被限制在特定条件下与人类“公平”对决的,即APM(每分钟操作数)等操作指标不能超过人类血肉之躯的极限。
总体而言,AI更强调长期规划和推理能力。
不过,虽然AI无法占领即时策略游戏这块高地,CherryPi也未能给Facebook带来像DeepMind一样的赫赫战绩,但人类应该为此庆幸。
试想,如果AI在即时策略游戏中完爆人类,说明AI在政治、军事、社会等各个方面具备了接管能力,如果再加上人类又毫无人工智能安全管理意识,CSER创造的那种最坏结局恐怕是会发生的。
原文发布时间为:2018-01-08
本文作者:张乾
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号