天天看點

霍金:人工智能可能導緻人類滅亡

霍金:人工智能可能導緻人類滅亡

5月3日消息,著名實體學家史蒂芬霍金(steven hawking)在讨論約翰尼德普(johnny depp)主演的新片《超驗駭客》時稱,人工智能或許不但是人類曆史上最大的事件,而且還有可能是最後的事件。他的意思是:人工智能可能會導緻人類的滅亡。

當你為人工智能技術的飛速發展而歡呼雀躍的時候,你是否想過這可能并不是一件好事?在觀看了德普主演的新片《超驗駭客》後,霍金在為《獨立》雜志撰寫的一篇文章中明确地表達了他對這個問題的擔憂。

霍金擔憂的對象不僅僅是未來的人工智能技術,甚至還包括現在的一些公司比如谷歌和facebook。他說:“人工智能的短期影響取決于由誰來控制它,而長期影響則取決于它是否能夠被控制。”不管從短期還是長期角度來說,人工智能都存在着巨大的潛在風險。實際上,霍金似乎根本就不信任所謂的人工智能專家。

他說:“未來可能出現的情況到底是好是壞完全是無法預料的,面對這種情況,專家們肯定會盡一切可能去保證得到最好的結果,對嗎?錯!如果有一個優越的外星文明給我們發來一條資訊說:‘我們将在幾十年之後到達地球,’我們是否應該回答說:‘好的,當你到達地球的時候請通知一下我們,我們将給你留門’?我們可能不會那麼做,但是如果人工智能技術繼續發展下去,差不多就會出現那樣的情況。”

實際上,堅持技術發展似乎可以消除或避免最終産品可能對人類構成的威脅。無人汽車就是個很好的例子。工程師們似乎并不關心人們在開車的過程中獲得的樂趣。

霍金承認,機器人和其他的人工智能裝置也許會給人類帶來巨大的好處。如果那些裝置的設計非常成功,就能給人類帶來巨大的好處,他說那将是人類曆史上最大的事件。然而他同時也提醒說,人工智能也有可能是人類曆史上最後的事件。

實際上,人類在考核人工智能技術的潛在風險和收益方面所做的研究工作太少。霍金對此表示擔憂和哀歎。

他說:“人工智能技術發展到極緻程度時,我們将面臨着人類曆史上的最好或者最壞的事情。”

霍金以前就曾試圖提醒人們注意一點,即科幻的魅力會蒙蔽我們的雙眼。它有時會掩蓋住一個重要的問題,即最終的結果有可能引發一場浩劫。他曾經說過,外星文明可能會憎恨地球文明。

人類有一種自戀的傾向,盲目相信自己很聰明而從不考慮事情有時可能會出錯。或許正如霍金所說的那樣,科技行業應該更多地把關注的焦點放在未雨綢缪上面。

原文釋出時間為:2014-05-04

本文來自雲栖社群合作夥伴“大資料文摘”,了解相關資訊可以關注“bigdatadigest”微信公衆号

繼續閱讀