最近,劍橋大學生存風險研究中心(The University of Cambridge’s Centre for the Study of Existential Risk,CSER)做了一件防止發生世界末日的事:在遊戲文明5中實驗讓AI毀滅人類。
文明5是一款即時政策(RTS)遊戲,玩家帶領一個曆史悠久的民族不斷更新打仗,與其他國家在文化、科學、軍事和宗教等領域展開全方面競争。
CSER釋出的是一個免費的MOD,最終将文明5變成一場阻止“天網”的比賽。
在這個MOD中,遊戲玩家可以利用人工智能快速發展,但如果不建設人工智能安全實驗室,超級AI就會毀滅人類文明。
成敗都在超級智能MOD
如果遊戲玩家安裝了CSER免費的超級智能MOD,科技勝利的目标将從發射航天器到半人馬座阿爾法星(Alpha Centauri),變成建立一個安全可靠的進階AI。
遊戲玩家不斷在文明5中進入更進階的時代,而一旦進入現代時代,玩家需要投入大量的資源來建設人工智能安全實驗室,并打擊流氓AI元素的影響。如果玩家在利用超級智能獲得技術進步的同時能做好AI的檢查工作,那麼就會取得勝利,最終将離開這個世界走向烏托邦;但如果讓流氓AI失去控制,超級智能就會摧毀人性,人類建立的文明就會失敗。
文明5中的甘地是個“核彈狂魔”,但跟不受控制的人工智能比起來,就是小巫見大巫。
CSER的研究Shahar Avin在接受The Verge的采訪時表示,玩這個MOD的确能激勵他更深入地思考AI的危險。 “假設你陷入了兩個激進文明之間的紛争,管理人工智能的風險就會變得非常困難,因為你的資源專注于打仗。”Shahar Avin說。
文明5甚至已被納入高中課程作為學習工具——雖然這可能并不是了解曆史的最好方式,但是對于國家之間的基本經濟、發展和外交能帶來很多教訓。
盡管AI在遊戲中處理外交時的表現非常糟糕,但就模拟國與國之間完全誤解的後果而言,它又是相當準确的。
AI尚未突破即時政策遊戲防線
AI不僅在處理文明5中的外交表現糟糕,實際上在即時政策遊戲中,整體能力尚不如人類。
在去年的星際争霸AI競賽中,Facebook悄悄地派出一款叫做CherryPi的AI bot,最終CherryPi在28場比賽裡僅排第6。國外科技網站Engadget甚至以Facebook“被業餘玩家狂虐”(Facebook’s 'StarCraft' AI was defeated by hobbyists)為題做了報道。
雖然AI在圍棋、德州撲克等政策遊戲中戰勝了人類,但在即時政策遊戲始終不能突破人類防線。這由以下幾點決定:
1、RTS遊戲重在“即時”,每個玩家都在較少的時間内思考行動計劃,AI做不到短期決策。在星際争霸中遊戲每秒執行24幀,這意味着玩家可以在比賽前每42ms一樣快狀态變化。而對于棋牌類遊戲而言,玩家有幾分鐘後的時間來思考。
2、AI無法應對突發事件。除了打仗外,玩家還需要考慮經濟、局勢、偵查等方方面面,不斷做出安排。更重要的是,AI在處理突發能力上的表現不足,這也是AI在文明5處理外交時表現糟糕的原因。
3、遊戲的公平性限制條件。由于機器在速度和頻率上高出人類玩家,是以在某些遊戲中,AI被限制在特定條件下與人類“公平”對決的,即APM(每分鐘操作數)等操作名額不能超過人類血肉之軀的極限。
總體而言,AI更強調長期規劃和推理能力。
不過,雖然AI無法占領即時政策遊戲這塊高地,CherryPi也未能給Facebook帶來像DeepMind一樣的赫赫戰績,但人類應該為此慶幸。
試想,如果AI在即時政策遊戲中完爆人類,說明AI在政治、軍事、社會等各個方面具備了接管能力,如果再加上人類又毫無人工智能安全管理意識,CSER創造的那種最壞結局恐怕是會發生的。
原文釋出時間為:2018-01-08
本文作者:張乾
本文來自雲栖社群合作夥伴新智元,了解相關資訊可以關注“AI_era”微信公衆号