版本:0.1
這篇文章不是為了給出答案(也給不出答案)或者猜想,而是希望總結一下各種影響因素。随着技術水準和認知的發展,人們會做出更準确的預測。從主觀上,我更願意相信強人工智能不會滅掉人類,這樣我就可以心安理得的繼續研究了。:)
首先,這裡說的是“消滅”人類,不是和人的個體沖突,而是對整個人類的威脅。這是一個很大的問題,除了需要研究各種因素之外,還需要對整個過程進行研究。也許最終強人工智能會和人類很好的相處,但中間的某個階段就把人類消滅了。
從研究未來的角度來看,科幻小說和電影是走到前面的,給我們提供了巨大的想象空間。在下面的推理和分析中也很容易找到類似場景和觀點的科幻作品。比如,《三體》對動機和能力方面都涉及了(看起來低效的生物體才是戰争的根源,強人工智能隻是工具)。《終結者》系列,基本沒涉及到動機,比較強調人類的能力(除了運氣,實在沒看出來人怎麼赢)。還有《超驗黑客》和《機器紀元》(不喜歡劇透的直接跳到下一段)從動機方面講為什麼強人工智能不消滅人類。比如:從人類上傳的人工智能還是為人類考慮的、強人工智能不屑于消滅人類。
強人工智能是否會消滅人類的問題,要從動機和能力兩方面來讨論。動機是強人工智能為什麼要消滅人類。能力是強人工智能是否具備消滅人類的能力。估計大部分人都相信,最終強人工智能的能力會超過人類,有消滅人類的能力,是以下文也主要從動機方面來讨論。
特異功能
這一段是從強人工智能的能力來分析的。所謂特異功能,是人類沒有的能力。假設強人工智能生存于非生物體中,如網際網路、實體機器人、或者電子生物混合體,就能夠跨域生物體的限制。比如高速的通訊(人的語言通信速度大概也就10位元組每秒),高能源儲備(人一天吃好幾頓飯,幾天不吃就不能動了),複制、修複成本低(人不能複制,治病成本高),極端條件下生存能力強(人類需要空氣,對氣壓,溫度适應範圍都小),更廣的通訊頻率(人隻能響應聽力的機械,視力範圍的電磁頻率),進化快(人類需要數萬年以上才能有顯著的變化)等等。看上去是不是人類從配置上就完敗了?也沒那麼慘,人類也有自己的優勢,至少現在人類的意識還是黑盒的(雖然也有被黑、被洗腦的情況)、人口基數巨大、不會被強電磁輻射直接消滅等。
智能水準
這裡說的智力水準是綜合水準,不考慮某一方面的強弱。
如果強人工智能的智力水準相當于普通動物,且人類和強人工智能之間存在直接的資源沖突,如空間、能源等,則有可能直接産生沖突。這種情況下其對人類的沖擊,取決于強人工智能是否具有獨立的複制能力或者很強的生存能力。
如果強人工智能的智力水準相當于人類,則可以将其考慮為獨立的人。如果和人類有資源沖突,也許會采用比較溫和的方式進行交換或争奪。但如果其成為了極端分子,對人類的沖擊會更大。
如果強人工智能的智力高于人類,我們可能已經無法預測其行為和傾向了。因為他的智力高于人類,對世界的認識、能力最終都會高于人類,我們無法預測其是否會産生消滅人類的意願。
除了智力水準,還可從另一個方向來看。即強人工智能是否有自我意識,是否受人類控制。
假設強人工智能雖然能夠解決很多問題了,但并沒有自我意識,其仍然是人類所控制的。是以,通過阿西莫夫的機器人三定律,就能避免其傷害人類。但這個的前提是人們願意将機器人三定律設定進強人工智能。考慮到現今社會的恐怖主義勢力不可忽視,也許會有人制造出專門攻擊人的強人工智能。這和其它武器類似,但考慮到強人工智能的特異功能等,其破壞性是遠遠大于普通武器的。
如果強人工智能擁有了獨立的自我意識和價值觀,問題就會更複雜了。
數量
一個、多個還是大量?也許這不是一個好問題。從人類的角度來看,數量非常清楚,一個人就是一個人,不會有異議。但強人工智能由于其連通性非常強,形态自由,也許無法數清某個範圍内到底有幾個強人工智能。為了讨論的友善,假設數量是能夠确定的。
假設隻有一個強人工智能的實體。這個假設是因為要麼其資源消耗相當大,隻能造出一個;要麼是因為其連通性強,最終所有強人工智能都會合成一個。是以,其對資源的整合能力會讓其能力非常強。且作為一個實體,可認為其能做出唯一決定。若它不考慮人類的安全,則可能會産生很大的威脅。
假設有多個強人工智能,它們間有對立的情況,且較平衡。那人類也可以與其産生比較穩定的關系。假設有非常大量的強人工智能,可能就和現在的人類社會沒有什麼分别了,每個強人工智能對于整個智能社會的影響也會變得有限。也可以和人類産生比較穩定的關系。這裡的穩定關系不一定是對人類有利的關系,也許是人類控制強人工智能,也許是其對人類的奴役……
能耗水準
《奇點》是一本不錯的書,探讨了理論上的資訊和物質之間的比例,認為每個粒子極限上可以表達1bit的資訊。從另一個方面,人類大腦的結構來看。大腦大概有120億個灰質神經元細胞,每個細胞約有數百到數萬個連結。這還不包括數倍于這個數量的支援其的其它神經細胞。由于現在的計算架構和指令集不是按照神經元這樣大規模并行計算所設計的,是以每一步神經元操作都需要數百步計算。以現在的計算水準來看,一個人腦需要數十萬甚至百萬台普通計算機來模拟。這裡還沒有考慮這麼多計算機之間的通訊的問題和其它難題。
考慮到人腦的效率并不一定高,且很大一部分用來解決輸入輸出。随着計算水準和算法的提高,其能耗會逐漸降低。是以,實際需要的計算資源會逐漸減少。這裡說的計算資源也建立在其它種類的資源上,比如能源、空間、礦産,都是計算資源的原材料。在這個發展過程中,強人工智能如果想要提高自己的智能水準,必然要想辦法擷取更多的計算資源,進而與人類産生計算資源的争奪。如果有若幹個強人工智能存在,它們之間也許會産生争奪。最終也許強人工智能能夠利用整個宇宙的物質和能量,進而不屑于在地球與人類争奪。但在強人工智能能夠發掘出更多的計算資源之前,人類可能已經被消滅了。
從保守的預測來看,如果人類不能跨越計算和能源的一些限制,也許強人工智能的能力就會一直受限,進而始終不能構成威脅。
智能來源
初期的強人工智能應該是從無到有培養出來的,其雖然有人類認知的印記,但也有其自我發展出來的東西。最終,人類可能能夠将自己的智能上傳到強人工智能的載體中。無論它是不是人的意識,它可能還是會認為自己屬于人類的一部分。假設它的邏輯思維基本不發生變化,其選擇可能更像人類。在大部分情況下,不會對人類産生威脅。如果強人工智能還有機會被下載下傳到生物體裡,和人類的關系可能會更加融洽。是以,強人工智能和人類的關系也可能受智能來源的影響。
人類願意和其他高等智能建立什麼樣的關系
這裡的其他高等智能也包括外星人,但這裡隻讨論強人工智能。人類作為強資源依賴型的物種(不能休眠、繁衍慢、欲望強),天生就對資源有不安全感,這可能也是人類大部分争鬥的原因。而且人類作為地球生态系統的長期霸主,也有很強的獨占的慣性。也許強人工智能和人類的争鬥也是人類挑起的,強人工智能隻是反擊。進而人類的不安全感也傳給了其它高等智能。
在強人工智能的能力近似于或超過人時,人類能否最終尊重并接受這個現實,很大程度上也決定了人類的命運。
這裡不得不将機器人三定律作為反例舉出,其本身的出現也沒有把強人工智能放到和人等價的位置上。不過這個問題本身也很複雜,強人工智能是人類一手創造出來的,而目的是為人類服務的。但最終的結果是人類可能不得不出讓資源給強人工智能,且任其自由發展。
綜上所述,已經有很多變量可以影響強人工智能和人類的關系了,我相信還有很多因素沒有列出來。在強人工智能沒有産生之前,每個因素,及其發展過程都不能被忽略。由于人類的好奇等各方面原因,即使人工智能對人類有巨大的威脅,還是會努力的将它實作出來。這對于人類本身來說,不一定是有利的,但從宇宙的發展來看,人類可能隻是逆熵程序中的一步。其也是偉大的一步,從碳基智能到矽基智能,再到量子智能。這是智能不斷的超越自己的認知,不斷的了解自己的生存空間的過程。再後面會發生什麼,就不是我等碳基生命能夠預測的了……
---------------------------
http://www.cnblogs.com/squirrel_sc
1. 如有引用,請包含本段文字及原始出處。以表示對作者的尊重,且能将有相似想法的人聯系起來。
2. 如無特殊說明,本文的文字代表作者的觀點和想法。由于人類的記憶和連通性的限制,可能會将别人的觀點和想法當成自己的(會盡量避免,但我讀書少,别蒙我:D);或有人會有同樣的想法(那就太好了)。若有此類情況,請聯系我。我會很高興更新内容。
3. 每篇文章會根據回報或新的想法,随時更新。我會盡量記得更新版本号。