天天看點

關于《經濟學人 —— 人工智能專題報告》的一些解讀

    原文: https://www.economist.com/sites/default/files/ai_mailout.pdf

    翻譯: http://www.cnblogs.com/massquantity/p/8324015.html

這篇文章出自《經濟學人》20160625期 :

關于《經濟學人 —— 人工智能專題報告》的一些解讀

《經濟學人》的這篇原文就很長,是以我情非得已把這篇附文拆分了出來。以下内容中原文皆以【文章】指代。

這篇【文章】的主要内容,自然是人工智能。然而【文章】的标題卻是“機器問題歸來(The return of the machinery question)”,這無疑預示着一種曆史層面的解讀,【文章】中用19世紀工業革命時期人們對于新機器出現的種種态度來類比今天的人們對于人工智能的各種争論,最後得出結論,人工智能總體上來看是對人類發展有利的,就像工業革命中的機器極大促進了經濟發展一樣。目前很多觀點認為人工智能與電、蒸汽機一樣,是一種通用技術,甚至可能會引發第四次工業革命,是以這篇【文章】看起來也非常地應景。【文章】主要從科技、曆史、經濟、教育、社會、倫理等層面對人工智能這個新時代寵兒進行了綜述,無論是深度還是廣度都是我在其他文章中未見的(這裡的深度指縱向的曆史深度,而非技術深度),是以在此我也想就【文章】中提到的一些方面進行補充拓展,以期勾勒出更全面的時代樣貌。

 1.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

                               我們命該遇到這樣的時代。

                                                               —— 莎士比亞《辛白林》

 【文章】第一部分提到了人工智能的創新式破壞所産生的巨大影響,使用的詞彙是“creative disruption”,這個詞本身有多種引申義,可細分為“creative destruction”,“disruptive innovation “,“disruptive technology”,我想作者可能是把這三層意思都包含在裡面了。

這一套“創新式破壞”理論,都源自奧地利著名經濟學家約瑟夫·A·熊彼特在其代表作《資本主義、***與***(Capitalism, Socialism and Democracy)》中提出的術語 —— “creative destruction”。熊彼得的主要思想之一是商業周期(business cycle)理論,他将“creative destruction”視作整個商業周期的一部分,是經濟陷入不景氣時擺脫困境的良藥。是以“creative destruction”主要着眼于宏觀經濟層面,能産生跨行業的巨大影響力。

“Disruptive innovation “和“disruptive technology”均出自哈佛商學院教授Clayton Christensen的名作《The Innovator\'s Dilemma》。Christensen所說的創新主要指行業内的技術創新,新産品剛出現時因為性能不足,不受主流市場青睐,但随着該技術的不斷改進,最終取代原有産品。這聽上去很簡單,但為什麼很多大公司都敗在“disruptive technology”腳下?Christensen認為根本原因并非是大公司的管理者目光短淺或者缺乏創新能力,而是由一級級的客戶-供應商價值傳遞所導緻。大公司出來的管理者從上商學院開始就接受的管理信條是:”以客戶為中心“;”利潤最大化“;”将錢投資在可能的ROI最高的産品上“。這些管理準則大部分時候都沒有錯,然而在面對“disruptive technology”的時候卻瞬間成了錯誤的指導原則,因為含有“disruptive technology”的産品往往剛出現時其功能不足以和現有産品抗衡,因而下遊的大型客戶都不需要,那麼公司的市場和産品管理者自然會調低該産品的預計收益。而由于一個公司的總體資源是有限的,最高管理層在做決策時自然會選擇将更多資源投入預計收益高的産品,而忽略那些“disruptive technology”。Christensen認為這是一個整體的”價值網絡(value network)“所導緻的結果,“disruptive technology”創造了新的市場和價值網絡,最終破壞并取代原有的,穩固的市場和價值網絡,這個過程即為“disruptive innovation “。近年來最知名也最令人動容的案例就是諾基亞ceo的那句聲淚俱下的自白 ——we didn’t do anything wrong, but somehow, we lost ——以及影像巨頭柯達公司的隕落,很多企業在面對“disruptive innovation “的時候恐怕都是這種感受。

【文章】的開頭提到:

  • 到2025年,由AI引發的”年度創新性破壞影響(“annual creative disruption impact)“将達到14至33萬億美元,其中包括9萬億人工成本,因為AI 可以使知識工作自動化;8萬億生産和醫療成本;以及使用無人駕駛汽車和無人機帶來的2萬億效率增益。智庫麥肯錫全球研究院(McKinsey Global  Institute)聲稱:AI正在促進社會的轉型,與工業革命比起來,這次的轉型“速度上快10倍,規模上大300倍,影響力則幾乎超3000倍。”

從這部分描述看,如果成真的話,顯然是一種creative destruction。【文章】中僅引用了麥肯錫全球研究院(McKinsey Global Institute,MGI)報告中的一句話,而事實上,MGI分别在16年12月,17年1月、4月、6月發表過人工智能相關的報告,這也從側面展現了人工智能目前的熱度。

MGI在報告中提出了六種disruptive model,包括供應/需求的高效對接、産品定制化、資料驅動研發、決策優化等等,這些model都涉及了衆多行業。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

從2016年來看,各科技公司在AI領域共花費了260-390億美元,其中90%用于技術研發和部署,而剩下的10%則用于AI收購。下圖顯示2016年人工智能界獲投資最多的六大應用: 計算機視覺、自然語言處理、機器人技術、虛拟智能體、無人駕駛、機器學習。其中機器學習占比最高,大概是因為在各個領域這都是一項通用技術。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

另一家知名咨詢公司埃森哲(Accenture)則釋出了關于中國的人工智能報告,指出中國***近年來大力推動人工智能的發展,印發了一系列通知,包括《“網際網路+”人工智能三年行動實施方案》,《新一代人工智能發展規劃》等,很大一部分原因在于人工智能對于經濟的助推作用。埃森哲評估人工智能的發展将對日趨緩慢的經濟增長有所補償,到2035年人工智能的發展可以讓中國的GDP增長率提高1.6%。更為重要的是,雖然中國的人口在不斷增長,但老齡化的問題卻開始顯現,帶來的問題是勞動人口的增長率正不斷下降,如下圖所示:

關于《經濟學人 —— 人工智能專題報告》的一些解讀

毫無疑問,開放二胎的原因之一就是國家看到了人口老齡化這方面的隐患;而另一方面,人工智能與以往的技術創新如電、鐵路、資訊技術不同,不僅可以促進經濟增長,還可以代替人進行工作,進而創造新的勞動力,這樣就能有效緩解人口老齡化的危機。這又從另一個側面反映出人工智能對宏觀經濟的巨大影響。

衆所周知,人工智能在發展初期表現乏力,然而現在卻在多個行業表現出驚人的效果,并逐漸取代了原有的模式,這很像是“disruptive technology”的發展軌迹。對于具體行業的影響,這裡僅舉一例 —— 醫療行業。

比起其他行業,醫療行業對AI往往持較謹慎态度,如文中所述,原因主要有***監管問題、病人隐私問題、診斷可信度問題、醫療市場的碎片化等。但未來人工智能在醫療行業卻是大有可為的,如【文章】中所述的醫學影像診斷,預測疾病分布,個體治療方法的定制化,協助藥物研發等。未來的人工智能技術不僅可以分析大量的醫療曆史記錄,還可以分析周邊可能影響健康的環境(例如污染、噪音等),檢測出其中的高危人群,提醒當地***采取措施;醫療專家可以遠端監控病人健康狀況以及飲食和運動規律,通過資料分析來預測病人的康複情況或潛在風險,這樣也能緩解醫院的過分擁擠;使用了機器學習和自然語言處理技術的智能機器人可以進行挂号登記,根據病人具體情況配置設定給最合适的醫生;人們在家中可以使用小型自動診斷裝置執行簡單的日常身體監測和開具藥方,不僅更加友善,也省去了很多跑醫院的成本;機器學習同樣可以精确預測市場需求,優化庫存和産品組合。

總的來看,一項“disruptive technology”剛出現的時候,大部分人往往不以為然,直到其真正爆發後,人們才突然感受到其“破壞性”的威力。人工智能的威力已然令很多人驚愕,在圍棋領域,AlphaGo已經戰勝現世界排名第一的柯潔了,然而和之前與李世石的對戰不同,這一次人們幾乎一邊倒地預測阿爾法狗會赢。在這幾年間全面目睹了阿爾法狗的恐怖實力後,嚴肅和反思終于取代了懷疑和漠視。如果從現在回到過去來做預測的話,相信大部分人也會說肯定是AlphaGo戰勝李世石。

站在現在,看未來就像重重迷霧;但回望過去,一切又是那麼地清晰。《經濟學人》的這篇【文章】最後說其主要聚焦于人工智能近期的實際影響,人工智能在近的時代發展中會扮演越來越重要的角色,這是無可懷疑的,那麼遠的和更遠的未來呢?

2.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

                    當你在凝視深淵時,深淵也在凝視着你。                    

                                                                                  —— 尼采《論道德的譜系》

在《Life 3.0》中,MIT的實體學教授Max Tegmark 列舉了十幾種關乎未來人類與AI的可能情景 :

關于《經濟學人 —— 人工智能專題報告》的一些解讀

        1. AI做主導者的***主義烏托邦

        2. AI成為人類的善意***者

        3. AI和人類平等共存的烏托邦

        4. AI作為人類幸福的守護者和指路燈

        5. AI主導着人類,也保護人類的安全

        6. AI奴隸着人類

        7. AI征服了人類

        8. 人類滅亡後,AI成為人類的後代

        9. AI把人類當成寵物養在動物園裡

        10. AI成為***者的工具

        11. AI消滅了人類對地球的影響,讓人類回歸田園時代

        12. AI 和人類一起走向共同滅亡

樂觀點來說,我們自身的行動很大程度上會影響上述情景的走向,而預測未來最好的方法就是去創造未來。在這方面尼采的觀點最為清晰,在《查拉圖斯特拉如是說》中列舉了精神的三段變化 —— “駱駝“、”獅子“、”孩子“,喻指創造的終極形态:  駱駝任勞任怨,忍辱負重,一生都在走一條沒有分叉的大道,一旦偏離就總會被人拽回來;獅子非常自大,勇于打破傳統觀念,可以直接宣稱”上帝死了“,但卻隻會打破不會創造;孩子内心純淨,沒有教條的束縛,可以重新創造新的價值,創造自己想要的未來。

然而事情并非這麼簡單,如果單靠行動就能造出我們理想中的未來,那為什麼【文章】第二部分中說的:

  •  人工智能這個術語首先出現在1956年的一項研究計劃中,該計劃提出,“如果精心挑選一批科學家共同工作一個夏天,一些課題将會取得重大進展,比如使得機器能夠解決一些目前隻有人類才能處理的問題”。這已被證明是樂觀過了頭,或者至少可以這麼說,盡管AI間歇性地取得過一些爆發步,它給人的印象卻總是承諾遠大于成果。

我查閱了一下,這個計劃是在一個史稱“達特茅斯會議”的會上形成的,這個會議被廣泛認為是人工智能的起源。參會者有像克勞德·香農、馬文·明斯基、赫伯特·西蒙這樣的超級大牛,卻依然後來被證明錯得離譜,那可想而知我們普通人對未來進行預測的難度了。鹽野七生的《羅馬人的故事》中有很著名的一段話:“曆史必然向前是真理,同樣,曆史上偶然事件的積累也是真理。成為曆史的主角,就要盡快解決和擺脫不好的偶然,把好的偶然引向必然。”偶然事件的不斷疊加,就成了趨勢。好的偶然積累變為正向趨勢,壞的偶然積累則成了負向循環,過分關注一個個偶然事件隻會陷入見樹不見林的境地。

從大方向上來看,Google、Facebook、Amazon、Microsoft、IBM、LinkedIn、阿裡、騰訊、百度等科技巨頭争相宣布未來發展核心壓寶在人工智能。是以在未來除非他們公開承認自己看走了眼,否則我們這些生活被這些公司深刻影響的普通人都将不得不卷入這股浪潮中。這已經無關乎人工智能對人類究竟會産生什麼樣的影響,而是未來的輪廓在某種程度上已經是定好的了。這樣的話,與其說是人創造出了未來,不如說是提前占據了既定未來的一席之地。我們在展望未來時,未來也在回望着我們。

托爾斯泰在《戰争與和平》的最後一章闡述了其曆史哲學,其中的一大核心觀點是:“在我們所觀察的每一行動中,都有一定程度的***和一定程度的必然。任何行動中***越多,必然就越少;必然越多,***就越少。推動曆史程序的是由無數偶然性組成的必然性。是以人的***意志從更加宏大的空間和更加久遠的視角來看,是微乎其微的”。如果從這個角度來考慮,上述這些公司的行為其實并不存在多少***意志。

公司與公司之間固然是不同的,有的追求短期收益,有的重視長期規劃,但這些歸根結底取決于其對于需求的認識,即使是SpaceX這種為全人類長期利益謀劃的公司,着眼點也是“人類客觀需求”是真實存在的,即留在地球不是長遠之計。是以從廣義上來說,驅動公司的主要因素是需求,這其中不僅包括現在的需求,也包括未來的需求。當然也有人說是錢驅動公司行為,因為公司的根本目的是盈利。但實際上隻有滿足了需求才能得到錢,比如客戶想要一台電腦,而你給他送過去一個冰箱,那不可能會付給你錢。

是以回過頭來看這些公司的“all in AI“ ,“AI First”,原因其實是他們認為AI(在未來)能夠滿足人類的需求,滿足了需求之後才會盈利。是以從這一點上來說他們并沒有多少選擇的餘地,是全人類需求的大規模存在決定了未來。

當然,上述内容都有一個前提,那就是公司眼中的需求是不是與真實的需求相符?喬布斯曾經說過:“消費者并不知道自己需要什麼,直到我們拿出自己的産品,他們就發現,這是我要的東西”。然而并不是每個人都有喬布斯那樣的洞察力(即使是喬布斯也有失手的時候,比如Apple Lisa和Apple III),大部分時候人們眼中的和真實的需求都難以比對,是以接下來我想從一個更本源的角度來探讨創造之前的認識問題。

數學裡有一個著名的公式:

$\Large{Av=\lambda v}$

大緻意思是如果公式成立且特征值 $λ$ 為1,則向量 $v$ 通過矩陣 $A$ 進行線性變換後,依然保持原向量 $v$ 不變。從哲學的角度來看,這簡直是認識論的最高境界,外在事物經由我們的感官傳入腦中而變換形成的概念是否能與該事物的原初面貌相同?這是非常困難的,上述公式并非恒成立,即不是每個向量都能經過變換而保持不變,而我們對事物的了解與該事物的客觀實在也不見得相同(當然這不是唯物主義的觀念)。

然而我們的認識本身又非常重要,人的行為歸根結底取決于其對于所處世界的認識,不一樣的認識會産生不一樣的結果。在認識問題上,哲學家中一直存在着理性主義和經驗主義之争,當然雙方都不是***,很少有哲學家會說我們認識世界的方式是純粹靠理性或者純粹靠經驗,而是二者誰占主導的問題。康德在《純粹理性批判》開始處說:“毫無疑問的是,我們的一切知識都是從經驗開始的……但是,盡管我們的一切知識都是通過經驗來開啟的,知識卻不是全部起源于經驗”。我們從外部世界中觀察到的東西需要經過知性的加工才能轉化為知識,在認識過程中,人本身比客觀事物更重要。然而康德認為這世上有些東西是單靠人類的經驗和知識永遠無法認識到的,他稱這些東西為“自在之物”。當我們展望未來時,是憑借着經驗和知識進行預測,而由于“自在之物”無法被我們認識到,是以即使“自在之物”對未來産生影響,我們恐怕也難以意識到。

而從資訊論的角度看,如果事先對事物一無所知,那要預測這樣事物是非常困難的,因為這其中存在着極大的不确定性,即熵很大。要降低這種不确定性,則需要引入資訊,是以在這個系統中經驗和知識就是充當着資訊的作用(而自在之物這種說不清道不明的東西顯然無法充當資訊)。然而正如康德所述:“經驗既不會提供嚴格的普遍性,也不會提供無可置疑的确定性。”光靠經驗是無法徹底消除不确定性的,這也是為什麼很多時候即使是專家也會做出錯誤的判斷。

當然,在研究曆史事件時,我們手握大量的資訊,因而不确定性也被降到最低,這時候可以通過因果律将一個個事物聯系在一起(不要忘了,即使是偶然事件,也必然存在着原因)。當我們站在現在回望過去時,能通過結果反推原因,不怎麼費力地得出相應結論,比如現在我們通過研究都可以說08年金融危機的起因之一是美國過于寬松的借貸體系。然而當我們凝視未來時,因果關系就沒那麼容易确立了。

美籍華裔科幻作家特德·姜在《你一生的故事》中描繪了一個從結果推原因的現象,如下圖所示 :

關于《經濟學人 —— 人工智能專題報告》的一些解讀

一束光從空氣進入水中會發生折射,圖中實線顯示的是光從A點到B點耗時最短的路徑,這是光實際走的路徑,而虛線是理論路徑,理論路徑比實際路徑要短,但實際耗時卻更長,因為光在水中的速度比在空氣中慢。這個現象詭異的地方在于,光仿佛知道自己的目的地在B點,也知道途中會碰到水,是以在比較計算了所有可能的路徑後,選擇了耗時最短的那條路徑,這在實體學上被稱為費爾馬定律。這已經不是因果律了,而是目的論: 事先知道“果”,再反推到達這個“果”的“因”。小說中的外星生物“七肢桶”所發明的語言就有這種特性,是以它們在觀察事件後,便會知道最後的結果。由此,我們的語言是不是也需要一次革新呢?

3.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

                                                               The limit of my language, is the limit of my world.        

                                                                                                                                       —— Ludwig Wittgenstein

傳說中,夏目漱石在擔任英文教師時,給學生出的一篇短文翻譯,要把文中男女主角在月下散步時男主角情不自禁說出的"I love you"翻譯成日文。夏目漱石說,不應直譯成“我愛你”,而應含蓄,翻譯成“月が绮麗ですね”(今晚的月色真美)就足夠了。

【文章】第四部分提到深度學習是一個典型的黑箱算法,難以用語言解釋機器的決策過程,此為其一大缺點,可真的是這樣嗎?我們的語言明明如此多姿多彩、風情萬種,可為何連區區模型決策過程都描述不出來呢?在這裡我們先考察一下深度學習本身的特點,再回過來探讨這個問題。這篇【文章】因為考慮到《經濟學人》的讀者群體,是以在技術方面不可能深入,想要進一步了解深度學習的話可以參考三位深度學習大牛(Geoffrey Hinton,Yann LeCun, Yoshua Bengio,下圖)聯合在《Nature》上發表的綜述文章。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

我們平常用機器學習做各種任務,一般需要在原始資料的基礎上做特征工程來提取新的特征。特征對于最後預測的結果非常重要,有句話叫:“資料和特征決定了機器學習的上限,而模型和算法隻是逼近這個上限”。然而手工選取特征非常費時費力,而且往往需要依賴特定領域的專家知識來做判斷,比如預測一項産品會不會成功可以從整體市場需求、産品特性和需求的契合度、産品本身的品質、價格、後端供應鍊的完善性、産品對于新需求的适應性、競争對手的情況、公司宣傳産品的力度、客戶服務的品質以及這些特征之間互相組合篩選來進行評估,但現實中即使是人類專家要想設計出好特征也是相當困難的。

深度學習與多數傳統的機器學習算法不同,可以進行自動特征提取,特别是對原始特征進行非線性(non-linear)組合,通過多層處理,逐漸将初始 的“低層“特征表示轉化為“高層 “特征表示,再用”簡單模型“即可完成複雜的分類等學習任務。整個過程無需人類幹預,這是個很大的改變,是以深度學習也叫無監督特征學習(Unsupervised Feature Learning)。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

上圖顯示的是一條薩摩耶犬,來源于上文《Nature》裡的那篇文章,描繪的是一個卷積神經網絡(convolutional neuron network)自下而上的特征提取過程。下面都是由原始像素提取的邊緣資訊特征,經過一步步聚合轉換成上面的高階特征。而下圖(來源)更加清晰地表現出計算機學習出來的高階特征已經包含了抽象全局資訊,在此基礎上做分類就比較容易了。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

深度學習的這種特性意味着其可以被廣為應用到各個領域,即使是不了解特定領域的人也可以作出比領域專家更好的結果出來(特别是很多很難提取特征的領域)。很多時候人們會發現深度學習有點“蠻不講理“的味道,可以充分借用海量的資料和現代計算機強大的計算能力來”硬學“(這并不是說深度學習沒有技術含量),不需要依靠領域知識。2012年9月,Kaggle 舉辦了Merck分子活動資料挖掘大賽,各路分子生物學、醫學、化學和藥學資料科學團隊紛紛出場,激烈厮殺。這個時候,Geoffrey Hinton 的博士生團隊拎着深度學習+GPU的大殺器闖進賽場,僅僅用了兩個星期,就把各路高手紛紛幹翻,奪得冠軍。重要的是,這個冠軍團隊是清一色的計算機和深度學習專家,一點生物、醫學、化學背景都沒有。

【文章】第二部分提到的ImageNet計算機視覺大賽,最初由斯坦福的李飛飛教授領銜推出,下圖顯示了近年來比賽獲得第一名的誤差率,可以看到2012年引入深度學習後,誤差率一下子下降了将近10%,為最大單年下降幅度。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

下圖顯示2012年之前的ImageNet冠軍還是使用傳統機器學習,但在2012年Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton等人使用了卷積神經網絡獲得很大提升後,後面幾年的冠軍都變成了越來越複雜的深度神經網絡。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

現在回到最開始的問題,深度學習的全自動特征提取固然很好用,然而很多時候一個方面的優勢反而成了另一個方面的劣勢。下面仍由預測一項産品的成功機率舉例 :

如果進行傳統的邏輯回歸,y表示成功的機率,模型學習出來的結果可能是(因為是分類問題,這裡使用Sigmoid函數):

關于《經濟學人 —— 人工智能專題報告》的一些解讀

這樣就能直覺地看出新組合的“價格*品質*需求”這個特征對産品的成功與否比較重要,也可以看出價格的重要性大約是品質或需求的2倍。

而如果采用深度學習,則最後學習出的結果可能是(這裡僅是舉例):

關于《經濟學人 —— 人工智能專題報告》的一些解讀

這樣就無法看出究竟哪個特征對産品的成功與否比較重要,各特征的重要性差異也是不得而知。如果這隻是個産品預測問題,那至少不會是什麼性命攸關的問題,但若如【文章】中所述,無人駕駛汽車的變量選擇和決策過程,或者AI醫生的診斷推理過程是我們人類無法掌握的話,那聽上去确實是件很可怕的事情,這等于是把性命交給了一個神秘的陌生人來決定,而我們甚至都不知道它是根據什麼來做決定的。

不過,若真要說黑箱的話,還有比量子力學更黑的嗎?量子力學已經有100多年曆史了,如今更是被視作現代實體學的基石。然而其原理實在太過古怪,以至量子力學的創始者之一的玻爾曾說:“沒有被量子理論震驚的人,就是沒有了解它。” 在量子力學的世界裡,一個粒子以一定的機率處在A态,又有一定的機率處在B态,事實上在我們沒有觀測前,粒子處于一個A态和B态疊加在一起的混合狀态。但當我們打開箱子進行觀測時,由于觀測這個行為會對系統産生影響,導緻今天觀測粒子處于A态,明天觀測可能就變成了B态,整個理論建構在一種詭異的不确定性上。是以不難想見量子力學在誕生初期也是飽受質疑,偉人如愛因斯坦都很鄙夷地說:“朋友,上帝可不會擲骰子。”但是整個過程中就是實體學家先發現了許多與經典實體理論不符的現象,進而發展出量子力學的各種理論,這些理論得以解釋許多現象以及預言新的、無法直接想象出來的現象。是以對照量子力學的發展過程,深度學習碰到的是類似的情況,我們不清楚模型内部是怎麼做決策的,但實踐的效果卻很好,隻是亟待一種完整體系的建立。而翻看科學技術發展的曆史,工程實踐總是先于理論了解出現:透鏡和望遠鏡先于光學理論,蒸汽機先于熱動力學,飛機先于空氣動力學,無線電和資料通信先于資訊理論,計算機先于計算機科學。

或者再舉個日常點的例子: “開車時憑什麼相信踩了刹車,汽車就會慢慢停下來?” 因為有摩擦力。摩擦力這個東西本來沒有名字,但科學家發現了這種現象并經過反複實驗後,才認識到這種力的存在,進而将其命名為“摩擦力”。而我們大部分人認識的過程其實是先被傳授了知識,說刹車會産生一個叫摩擦力的東西,使車停止,進而在實際操作中發現果真如此,是以就慢慢相信這一套了。是以這就是一個很明顯的例子,由我們語言的改變緻使我們認識世界方式的改變。

是以從另一個角度想,所謂的無法解釋機器的決策過程,其實是難以用我們人類可以了解的語言來解釋其決策過程。反過來說,可能并非是機器無法自我解釋,而是我們的語言體系本身就弱爆了。比如上例中可以發明一個詞叫“價需多次體”來表示 ln(價格*需求),那麼ln(價格*需求^(3/2))就可以說成是“價需多次體需32”。下次人們在交流的時候,就可以說:“在這個模型中價需多次體需32比較重要,是其他變量的XX倍”。剛開始人們可能很難适應這種解釋方式,可像開車一樣,刹車靈驗的次數多了,也就自然而然地相信并熟練應用了,并沒有人真去做實驗檢測摩擦力的存在性。雖然現實中的深度學習問題不會像我舉的這麼簡單,但這不失為一個思路。其實可以看到幾乎所有領域都存在大量的專業術語,這是因為原來日常的語言體系無法承擔起描述領域知識的作用,是以不得不創造更多新的。

【文章】第二部分提到“遷移學習”,指系統能建構于過去習得的知識基礎之上,而不是每次都從頭開始訓練。人類做到這一點毫不費力,計算機卻不行,但我們人類自己也無法描述是如何做到這一點的,因而可以說我們能做許多自己無法解釋的事情。我們的大腦,說到底不過是一堆腦細胞所組成,然而這些細胞組合在一起是如何産生思維、夢境、意識和情緒的,又是如何使用這些來進行推理決策的?現代科學對此還不是很清楚。是以在上世紀人工智能一直裹足不前,以至【文章】中都說“盡管AI間歇性地取得過一些爆發式的進步,它給人的印象卻總是承諾遠大于成果”。因為人類自己都無法解釋自己的認知決策過程,那又該如何教機器來做這些事情?所幸現在的機器學習可以不用靠人類程式設計輸入顯式的規則,而是計算機通過大量的實際資料來自我學習規則完成任務,而至于是讓機器用我們的語言來解釋其行為,還是我們改進自己的語言體系來了解機器的決策過程,這是個可以探讨的問題。不過這一切的前提是,你得有大量的資料。

4.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

                                                               IN God we trust; all others bring DATA.               

                                                                                                                             —— W. Edwards Deming

這篇文章提到馬雲說阿裡巴巴是家資料公司,馬雲的話自然不可全信,但這話還是值得玩味的。資料對于人工智能的重要性不言而喻,資料之于AI就如同食物之于人類。而随着人工智能的不斷發展,資料正演變成一種新的資産,若幹年後的資産負債表上可能會增加資料規模、資料次元等項目,或者仿照現金流量表建立一張資料流量表,加在每月财報裡,甚至可以把資料作為一種新型貨币來交易。比如IBM與許多醫藥公司和醫院進行合作,擷取資料來訓練Watson系統,這是不得已而為之的。從目前來看,智能化道路上最大的障礙不是算法,不是計算能力,而是大量高品質的資料。算法架構各大科技巨頭均已開源,計算能力不足可以通過雲計算實作,然而資料,特别是醫療資料是非常敏感的(亞馬遜的醫療資料洩露就引起軒然大波),非常難以獲得,而且很多疑難雜症,全世界都沒有幾例,也就沒法對這個類别搜集大量資料。而IBM花大成本研發的系統如果沒有大量的資料作支撐的話,就如同是沒有水的護城河 —— 雖不能說完全是個擺設,但終究是作用有限。

而與之相比,對于很多網際網路巨頭而言,擷取資料的***度就高多了。【文章】中說大型網際網路公司之是以都願意免費開放自家的AI架構,是因為在其他層面他們手握巨大優勢:即能夠擷取大量用于訓練的使用者資料。《經濟學人》之前發表過一篇文章(The Great Divergence ),講的是熊彼得的著名理論認為做一個行業領先者是相當危險的,因為後來者可以利用現成的知識和技術加以适當改進來趕超領先者。但近年來的研究卻發現各行各業都出現了“赢者通吃”的局面,因為行業領先者擁有雄厚的資源可以不斷投資新技術,以及都掌握着一些壟斷優勢。這反映在資料層面也同樣是如此,大公司由于擁有得天獨厚的資料優勢,在人工智能的發展上就領先了一步。

在資料層面還有一個值得考慮的問題,這個問題會直接影響資料的使用 —— 即資料的标注。目前機器學習界占主導地位的是監督學習,其中特别是深度學習這類算法,需要大量帶标簽的資料進行訓練,像ImageNet的資料庫中有2.2萬個類别、1500 萬帶标簽的圖檔,據李飛飛介紹這麼多圖檔是花了3年才全部标注完的。資料的标注甚至已演變成了一個行業,可以參閱這篇文章的介紹。

鑒于真實世界中大部分資料都是無标簽的,而人工對資料進行标注又非常費時費力容易出錯,是以現在機器學習和深度學習中,重要的宏觀趨勢是算法研究正逐漸從監督學習轉變為無監督學習和小樣本學習。Yann LeCun在很多演講中反複提到一個著名的“蛋糕”比喻,來解釋無監督學習的重要性:

  •  如果人工智能是一塊蛋糕,那麼強化學習( Reinforcement Learning)是蛋糕上的一粒櫻桃,監督學習(Supervised Learning)是外面的一層糖霜, 無監督學習( Unsupervised Learning)則是蛋糕胚。
  • 目前我們隻知道如何制作糖霜和櫻桃,卻不知如何制作蛋糕胚。
關于《經濟學人 —— 人工智能專題報告》的一些解讀

本來這一節寫到這裡就可以擱筆了,然而最近DeepMind又出來搞事了。2017年10月18日,DeepMind在《Nature》上發表了一篇論文,介紹了依靠純強化學習訓練而成的阿爾法元(AlphaGo Zero)。對于從業者來說,這其中最大的亮點不是能100:0橫掃舊版AlphaGo,而是看到了一絲希望,即不需要大量人類提供的資料(在圍棋中,意味着曆史棋譜)進行訓練。如果能妥善解決目前普遍存在的資料缺失問題,那對整個人工智能界乃至全人類發展的影響都比成為圍棋世界排名第一要大的多。

人工智能的一項重要目标,是在沒有任何先驗知識的前提下,通過完全的自學,在極具挑戰性的領域,超越人類水準。而AlphaGo Zero就是不參考曆史棋譜,不需要人類的樣例和指導,隻以棋盤上的黑子和白子作為輸入,通過自己和自己博弈進行訓練。據AlphaGo Zero的第一作者、UCL的教授David Silver在訪談中介紹:他們在之前的AlphaGo中嘗試過自我博弈,但發現都不穩定,這次發現AlphaGo Zero所使用的算法是最高效的,是以他覺得目前來看算法比資料重要,這對于整個業界來說都是重要的新思路。

AlphaGo Zero的出現令強化學習大放異彩,早些時候強化學習就在《麻省理工科技評論》釋出的2017年全球十大突破性技術榜單上排名第一。如【文章】中所述,監督學習、強化學習和無監督學習是機器學習的三大架構。強化學習的主要過程是智能體在環境中觀察并采取行動,以獲得最大的期望獎勵,如下圖所示 :

關于《經濟學人 —— 人工智能專題報告》的一些解讀

強化學習主要适用于需要與環境不斷互動來獲得最大獎勵的領域。比如一個智能體可以在股市中不斷進行觀察,繼而在每秒決定買進還是賣出。股市是一個極端複雜不可控的環境,再厲害的人類交易員,也很難在高維資料分析方面比得過機器學習算法。另外,投資很多時候需要極度理性,看清長遠趨勢,放棄短期利益才能最終獲得收益最大化。而強化學習恰恰擅長放長線釣大魚,在訓練過程中通過不斷模拟和試錯,神經網絡調整參數,智能體最終識别出擷取最大獎勵的途徑。許多人都驚歎于AlphaGo在比賽中表現出的超越人類選手的大局觀,其實意思也就是說,它在前期可能會下幾步出人意料的棋,但到了中後盤,人們慢慢發現這幾步棋成了最終獲勝的關鍵。

早在AlphaGo之前,DeepMind就曾以深度強化學習算法在世界上揚名。圍棋作為一項運動是有一定門檻的,而事實上大部分人都不會下圍棋,是以本質上也不知道AlphaGo究竟厲害在什麼地方,隻能從側面(比如戰勝所有圍棋高手)獲得一些資訊。這就像著名小提琴家斯特恩曾這樣評論二十世紀最偉大的小提琴家海菲茲:“所有人都知道海菲茲拉得好,但隻有拉到我這樣水準的人,才明白他的技術究竟有多高超。”

然而,如果讓AI玩一個每個人小時候都玩過的遊戲,那情況就不同了 :

https://www.bilibili.com/video/av7826870/?from=search&seid=14295172322351513295

上面這個視訊,顯示的是DeepMind的AI在玩“打磚塊”遊戲上的自我進化過程。該AI所有的輸入僅為現有的分數和遊戲畫面上的像素,其他的要素比如球、磚塊、滑闆等,它一概不知。也就是說,除了獲得的分數以外,沒有任何人為輸入的遊戲規則資訊,全靠長期訓練,讓AI自己悟出,什麼是擷取最高分數的政策。是以剛開始時,AI的表現很差,老是漏球;經過400次訓練後,AI已經能很熟練地接住所有球了。而到了600次訓練後,AI自己“想”出了一個絕妙的政策,它将磚塊牆的左邊打出一個通道,然後通過這個通道把球打到牆的後面,這樣就能快速獲得大量分數。這個精巧的打法,是DeepMind的研究者自己都不曾想到的, AI發現了比人類更好的打法。在這個短短一分多種的視訊中,人們見識到了由原來的“弱智”AI進化到遊戲高手的全過程,而且DeepMind用同樣的技術讓AI從0開始玩了其他49種不同的遊戲,最終AI在29種中勝過了人類測試者。DeepMind于2013年12月發表了這項成果,一個月之後,Google宣布以五億美元收購DeepMind,後面的故事,現在大家都已經知道了。

【文章】中說Hassabis等人的願景是開發出通用人工智能(AGI),一個能完成多種任務的系統,而相比較而言,現在的人工智能系統大多隻能做同一件事。後文中Hassabis繼續說,” 我想我們已經掌握了一些關鍵資訊 ,能夠幫助我們向真正實作AGI技術靠攏。“ 果不其然,2017年12月AlphaGo 研究團隊提出了 AlphaZero:一種可以從零開始,通過自我對弈強化學習在多種任務上達到超越人類水準的新算法。據稱,新的算法經過不到 24 小時的訓練後,可以在國際象棋和日本将棋上擊敗目前業内頂尖的計算機程式(這些程式早已超越人類世界冠軍水準),也可以輕松擊敗訓練 3 天時間的 AlphaGo Zero。現在,DeepMind的這些采用新算法的AI能不依靠人類的資料和指導,隻通過基本規則進行自我學習就能在多個特定領域超越人類水準,這是通往AGI的關鍵一步。隻是如果真出現了通用人工智能,人類又該何去何從呢?

 5.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

                                   人類是唯一會交易的動物;沒有狗會交換自己的骨頭。         

                                                                                  —— 亞當·斯密《國富論》

【文章】第四部分提到了一個叫做“全球基本收入(Universal Basic Income)”的制度,大意是 ——“每個人,不管什麼情況,都會定期獲得固定數額的錢(比如每年10000美元),除此之外再無其他福利金”。基本收入不與原來的收入水準挂鈎,不論你的工資是100塊、1萬塊還是沒有工作,你都會獲得定額的基本收入。

乍看上去這是個很二的制度,如【文章】中所述,如果不用工作就能獲得一筆能維持基本生活的錢,那為什麼還要出去工作,為何不整天宅在家玩遊戲呢 ? 而且發放的很大一部分基本收入會遭到“浪費“,因為每個人獲得的基本收入都是一樣的,富人本來就很富足,是以基本收入對于他們來說不痛不癢;而窮人也沒有是以獲得更多的補助,所謂的社會福利體系難道不應該更多地傾向于生活水準較低的人群一邊嗎?

然而事實是,目前這種制度在全球正受到越來越廣泛的關注,很多科技圈名人都提倡全球基本收入制,除了【文章】中的Sam Altman,還有Facebook的Mark Zuckerberg等人。而一些國家像芬蘭已經與2017年1月開始小範圍試驗該制度。是以下面先提出一些不同觀點來描述這個制度的本源。不管怎麼說,這是個全世界都需要不斷讨論的議題。

首先,我們平常說的收入多少,賺的錢多不多之類的,其實根本不取決于絕對數字,而是取決于你自己,你的家人,以及周圍人對你的“心理預期收益”。超出了預期,依然會認為你賺的多,這種情況下再去追求更多收入的動力也就小了。或者再舉個極端點的例子,王思聰如果在年末公布說自己賺了5000萬,人們大概會很驚訝: “堂堂王思聰才賺5000萬?賺5億還差不多啊“。

叔本華雲:“對于人的幸福快樂而言,主體遠遠比客體來得重要。”人的需求和欲望都是不同的,這意味着“心理預期收益“也不盡相同,并非每個人都覺得整天閑着在家過一輩子就可以了。而且“心理預期收益“也會不斷變化,如果要買房結婚生小孩,那基本收入的錢可能就不夠用了。人在最初獲得基本收入時可能會對此比較滿意,難以意識到長期利益的影響,但當看到基本收入無法維持一些多樣的需求時,大部分人自然會面對現實選擇出去工作。

更何況,幸福感這個東西,很多時候都來自于比較。因為人畢竟是社會動物,看别人工作掙錢,周遊列國,購物不止,整天和你炫耀,而你卻隻能守着一些***給的基本收入,除了維持基本生活外啥也幹不了,此等情景絕對不會好受。有比較才會産生動力,由此逐漸認識到現在的情況不是自己想要的,進而尋求新的收入來源。

其次,基本收入制是對西方臃腫的現行福利體系的改革。對于芬蘭這樣的高福利國家而言,基本收入制可算是一個無奈之舉,因為目前的福利政策的實施成本太高,***雇了大量的人來管理這個複雜的福利系統,而基本收入制因為簡單則不會有這麼高的行政成本。另外,目前福利體系的失業金相當高,而一旦去工作了,那意味着就沒有失業金可領了,還要繳納所得稅,是以很多人的理性選擇就是不工作,這樣下去如果智能化的程度越來越高,不工作的人也會越來越多,會出現僧多粥少的局面。相對而言,不論有沒有工作,基本收入制都會發固定的錢,這會促使失業者更加積極去尋找新工作。

另一種改革的方向是負所得稅制(negative income tax),由經濟學家米爾頓·弗裡德曼所大力倡導。大意為劃定一個收入水準界限,若收入高于這個界限,則要繳納所得稅;若低于這個界限,則***會按一定比率給予補貼,收入越低獲得的補貼就越多。這樣等于確定了每個家庭都能有一份最低收入,同時避免了龐大的官僚機構。弗裡德曼是經濟***主義的代表人物,一直以來都反對凱恩斯學派的國家幹預主義,是以龐大低效的社會保障制度無疑是其深惡痛絕的。然而負所得稅制也存在一個問題,那就是不同地區的“生活水準”是不一樣的,比如北上廣和三四線城市的收入水準界限不大可能會劃得一樣。而如果按每個地區的具體情況單獨劃定收入水準界限,那同樣會激起不同地區的不滿,而且也不見得高效。

最後,很多人提倡全球基本收入制的根本原因,就是看到了人工智能對工作的破壞性影響。

【文章】中提到19世紀工業革命時期人們對于機器的大範圍恐懼,甚至有人抨擊其為“機械魔鬼“。當時盛行的盧德運動,就是被機器取代的勞工們(他們被稱為盧德分子)激烈地反抗工業革命,并對紡織機器進行大規模破壞。我們現代人看當時這些勞工們的行為是非常可笑的,仿佛他們無法認清時代的變革。但事實上這些勞工面臨的生存危機可能超乎我們的想象,據馬克思在《資本論》中記述:

  •  機器的影響是廣泛和急性的。世界曆史上再沒有比英國手工織布勞工緩慢的毀滅過程更為可怕的景象了,這個過程拖延了幾十年之久,直到1838年才結束。在這些紡織勞工中,許多人餓死了,許多人長期地每天靠2便士維持一家人的生活。

馬克思對于資本主義的一大批判就是勞動分工把人當成龐大機器的一個零部件來看待,使得工作者不斷地重複一些固定的工作,長此以往隻能掌握一些特定技能。經濟形成的基礎在于交易,工作者實際上是把自己的勞動力當作商品來與企業進行交易,當這些工作被機器取代後,勞動力的交換價值就随同它的使用價值一起消失。而如【文章】中所述,由于長期從事特定的工作,想要再從事别的工作同樣會變得非常困難。

與工業革命時期的機器相比,人工智能對于現今工作的影響可能更加巨大。前三次工業革命,讓人類擺脫了重體力勞動、精細體力勞動、簡單計算勞動。而這一次,伴随着人工智能而來的機器學習,很可能讓人類不必在簡單思考判斷類勞動上消耗大量人力資源。【文章】中說判斷一項工作是否易受自動化的威脅,不在于這是體力還是腦力工作,而在于其是否具有例行的流程。事實上現在很少有工作能完全被自動化,根據MGI的報告,隻有小于5%的工作有被完全自動化的可能,但大約60%的職業中至少有30%的工作活動可以被自動化,如下圖所示。是以未來的局面可能是在工作中人與AI互相取長補短,共同完成任務,從這個意義上來說,AI不會取代人,而是能與AI配合的人會取代不能與AI配合的人。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

但是如果深入考慮一下的話,MGI報告裡展現的恐怕隻是理想情況。假設一個人的所有工作活動中有50%可以被自動化,那他的工資還會是原來的工資嗎?這當然是不可能的啦,很有可能他的工資也會變為原來的50%,那世界上有幾個人能忍受這種情況的?幾乎沒有。員工和企業的沖突可能會由此不斷激化,超過一個零界點後,企業覺得管理成本太高,會越來越傾向于全自動化流程。是以未來自動化鋪展的速度可能會越來越快,讓人們始料未及,比如《南方周末》的這篇文章雖然講的是金融行業,但在這個時代也折射出很多行業面臨的現狀。

在1930年,經濟學家約翰·梅納德·凱恩斯創造了術語“技術性失業(technological unemployment)”,描述了技術的進步使得勞動需求減少,緻使大批人失業。但他同時也認為這隻是一種“暫時性的經濟失調”。從曆史上工業革命的發展曆程來看,這确實是暫時性的,但也付出了大批人是以而窮困一生的代價,那麼在現如今自動化趨勢越來越猛烈的情況下,我們還想要再經曆一遍這個過程嗎?

是以,近年來倡導實行全球基本收入制的呼聲越來越高,也就可以了解了。每月固定獲得的基本收入,至少可以讓人們免除後顧之憂,進而更多地去嘗試學一些新技能,做一些無法被自動化的工作。很多人不敢嘗試新工作、學習新技能是因為怕一旦不成功就會丢了飯碗,以至家庭生活失去了保障。正如盧梭所述:“人生而***,卻無往不在枷鎖之中。”我們每個人本來都很***,但後來卻時時受制于生活中各種資源喪失的風險而無法***做決斷,是以從這個角度來看基本收入提供的基本保障是給人們增加了一些***度。

俄國大文豪陀思妥耶夫斯基的名作《卡拉馬佐夫兄弟》中有著名的一章 —— 《宗教大法官》,裡面提到這位擁有極高權力的大法官認為,從人的本性來說,多數人都會為了一個安定、有保障的生活,而甯願放棄***,換句話說,就是以***交換面包(這裡的面包更多地指物質利益)。如果一個人能把石頭變成面包,人們就會對他俯首帖耳,不作多想。是以大法官才提出自己統治人類的三大要素:“奇迹、秘密、權威”。大法官的思想無疑是極端的,但并不代表不具有現實意義。

自動化毫無疑問會大幅提高人們的生活水準,然而這些都需要時間,在【文章】中這種延遲現象被稱為“恩格斯停滞(Engels’ pause)”。在這段時間中,大批失業和收入水準降低的人們可能會造成極大的社會動亂,進而給極權主義和不良分子一些可乘之機。在基本的生存問題都沒有解決面前,就不能指望再看重家國、道義和***了。基本收入制度以及其他各種各樣五花八門的制度,一大核心考量都是為了在這個延遲階段給人們提供一些基本的收入保障,不讓人性的灰暗原罪彌漫在整個社會上,但願這最終不會成為另一種空談。

 6.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

           我年紀還輕,閱曆不深的時候,我父親教導過我一句話,我至今還念念不忘。

          “每逢你想要批評任何人的時候, ”他對我說,“你就記住,這個世界上所有的人,并不是個個都擁

           有你那些優越條件的。”                              

                                                                            —— 菲茨傑拉德 《了不起的蓋茨比》

《經濟學人》2017年1月刊的封面是這樣:

關于《經濟學人 —— 人工智能專題報告》的一些解讀

這其中的主題已經是再明顯不過了:在自動化時代,隻有終生學習(lifelong learning)才能保持競争力。在【文章】中吳恩達也說:“你需要一輩子不斷學習,從長遠來看這一點已經是再明顯不過了。在大學裡所學的不足以讓你在後40年持續保持競争力”。偉大的科幻作家阿西莫夫則說,“我堅信,自我教育是這個世界上唯一的一種教育形式。更重要的是,學校裡的正規教育總有停止的時候,但自我教育永無停歇。“

所幸,我們身處網際網路時代,即使離開了學校,也可以獲得多元化的學習形式,像【文章】中的MOOC就是其中的典型代表。其實網絡公開課很久以前就有, 比如下圖是MIT的數學系名師Gilbert Strang 1999年的線性代數課程 :

關于《經濟學人 —— 人工智能專題報告》的一些解讀

下圖則是吳恩達2011年在Coursera上開設的《機器學習》課程:

關于《經濟學人 —— 人工智能專題報告》的一些解讀

我估摸着MIT的這門課可能是有史以來最著名的線性代數課程,而這很大程度上是拜網際網路驚人的傳播能力所賜。對比上下兩張圖,其實授課方式并沒有很大的不同,是以從這一點上來說MOOC不能算很大的創新,這類課程成功與否的關鍵還是在于教學品質,即便是1999年的課程,隻要品質過硬,照樣被人翻出來膜拜。

從另一個角度看,MOOC的适用對象主要是成年人,而對于小孩的學習來說不大适合。是以比較現實的做法是先在本地教育中打基礎,再去學MOOC上國内外名師的課程。但是現在想要獲得優質教育的成本正持續走高。某種程度上來說,教育越來越成為錢的遊戲,在美國,很久以前就是如此;在中國,随着各種花式補課、學區房的繁榮也是愈演愈烈。歸根結底,這是場資源争奪戰,幾乎整個社會都彌漫着一種“不跟上就會落後”的氛圍。

彼得·德魯克在HBR的一篇經典文章(Managing Oneself)中提出,每個人都應該考慮這樣一個問題 : “我是如何學習的?”,在他看來一個人的學習方式是一種天性,很難更改。許多世界一流的作家,在上學時成績都不好,他們回憶小時候都覺得上學時光是一種折磨。原因是寫作者通過“寫”來學習,而不是通過“聽”或“讀”來學習。然而學校不讓他們以這種方式學習,是以他們的使用者體驗都很糟糕。所有的學校都遵循這樣的辦學思路:隻有一種正确的學習方式,而且人人都得遵從。但是,對學習方式跟别人不大一樣的學生來說,***按學校教的方式來學習就是地獄。

實際上,學習大概有六七種不同的方式。有些人通過不斷記筆記來學習;有些人通過聽取多方意見來學習;有些人通過實踐來學習;有些人通過自省來學習。如果不按自己擅長的學習方式來,那确實不大可能會學的好。是以在這個背景下,适應性學習(Adaptive Learning)應運而生。

資料時代一個很重要的特點是産品和服務能夠按每個人的喜好定制,而現在對教育的定制化需求也開始顯現。【文章】中說的适應性學習就是能夠根據每個學生的具體情況定制課程、以其最易了解的方式教授内容,并按自己的學習情況調整進度。其實這樣老師們也能從中獲得解脫,以後諸如上課、批改作業、回答日常問題這些流程性工作都可以交給計算機完成(比如喬治理工大學的教授創造了一個機器人教學助手,在2017年能夠回答大約40%的學生問題,而且在不斷進步),老師們則可以有更多的精力針對每個學生的情況進行個體關照,這種學生與教師之間的互動恰恰是目前的計算機無法實作的。而且将來适應性學習不僅适用于小孩的教育,對于企業内部教育訓練而言也同樣适用,效率絕對比大會議室法高多了。

有調查顯示,目前大約80家公司,比如Knewton和 DreamBox Learning,正在北美、歐洲和亞洲實驗其适應性學習系統。這些系統的核心技術,自然是人工智能。通過實時追蹤學生每堂課的暫停次數、回答問題所需要的時間、回答出錯的次數、面部表情、滑鼠的移動規律、眼球追蹤、文字情感分析等項目,計算機視覺、自然語言處理和深度學習系統可以建立起該學生的完整檔案,其中包含具體表現、知識掌握程度、上課投入度、自信度、認知水準、思維模式、學習效率等傳統教學評估難以考量的項目,進而根據情況調整學習任務。由此可以看到适應性學習确實前景廣闊。

最後還存在一個問題: 在類人工智能時代,教育的方向是什麼?我們真的要叫所有人都往這個熱門方向擠? 是以這裡又牽扯出一個亘古不變的選文科還是選理科的問題,因為很多人說文科學了都沒什麼卵用,号召大家都去學理工科。關于這個問題,先來看看Peter Thiel怎麼說(出自CS183):

  •  有時候我們可能會覺得世界是這樣的:小處清楚,大處模糊。細節曆曆在目,但是總體圖像卻一團霧氣,就像盲人摸象一樣。不管是在商業還是在人生中,一項很重要的挑戰就是将細微之處和總體圖景結合起來,才能把事情說通。
  •  人文學科的孩子通常會對世界的“大象”有不少了解,但是對技術細節所知不多。而理工科則正好相反,他們知道具體細節,但不清楚這些技術是如何或為何融入到這個世界中的。最聰明的那批人則會将兩類問題融合到一起,形成統一的認識。這門課程就是為了加速這一過程的進行。

其實我毫不懷疑科技發展水準決定了人類未來生活水準的上限,然而就像一個小孩的良好成長需要好的環境一樣,科技的不斷進步和應用也需要良好的政治經濟社會環境的支援,這些恰恰是文科需要發揮主導作用的地方。文科需要把人類往“好的大方向”上引,而像《經濟學人》的這篇【文章】就從社會、政治、經濟、曆史這些宏觀層面來看待人工智能這個異軍突起的時代寵兒,讓人們在對人工智能有了清醒的認識後,才能更好地主宰未來的人工智能、乃至于人類自身的最終走向。

 7.

關于《經濟學人 —— 人工智能專題報告》的一些解讀

                       生活中隻有兩種悲劇:一個是沒有得到我們想要的,另外一個是得到了我們想要的。

                                                                               —— 王爾德 《道連·葛雷的畫像》

縱觀整篇【文章】,人工智能對于我們人類的潛在影響,各行各業的人都持各自不同的看法,這也很正常,畢竟“一千個人眼中有一千個陳冠希”。而這其中有3個人可謂是頻繁出鏡,他們的言論散布在【文章】各個角落: 一個是DeepMind創始人、AlphaGo之父Demis Hassabis;一個是因Coursera上的《機器學習》課程而聞名全球的斯坦福大學教授吳恩達;而另一個則是Elon Musk。

Elon Musk大概是當今世界上最受矚目的企業家(紐約時報稱他為”幾乎是世界上最成功、最重要的企業家。”),參與并主導的公司包括:Zip2, X.com, Paypal, SpaceX, Tesla, SolarCity, Hyperloop,OpenAI,涉及的領域有:金融、汽車、航空航天、太陽能、衛星、快速軌道交通、能源儲存、外太空殖民(-。-)等。其中OpenAI是直接涉及人工智能的機構,而Tesla則因其無人駕駛系統也是備受人工智能界的關注。

無人駕駛汽車雖然在誕生之初就飽受質疑,【文章】的最後還是顯示出了比較樂觀的态度,認為無人車會為社會帶來巨大的好處,主要展現為減少道路上的車輛數量和車禍事故。試想,如果所有車輛都變成了自動駕駛,你真的還需要買一輛車嗎?到時候,大量的無人車在各種巨型停車場靜靜地趴着,隻要有人下單,幾分鐘後,就會有一輛無人車來到你面前,任你驅使。再也不用忍受不會開車無法出行、偏遠地方打不到車、節假日堵車等情況。而且駕駛,特别是長途駕駛,本來就是一個極其消耗時間和精力的事情,有了無人車代理後,人們也可以有更多的精力用來工作學習、休息、陪伴家人等。

這裡可能有人會反駁說未來車的數量不會減少太多,因為很多人買車其實是單純地想要擁有一輛車。 這裡首先需要考慮的是為什麼會想要擁有一輛車,而不是想要擁有一架飛機、一幅畫或者一個音響?那是因為我們從小就耳濡目染,說車是XX的象征,擁有了車就代表擁有了XXX,是以潛移默化中車成了必須擁有的東西。然而到了未來情況就不一樣了,正所謂“謊言重複一千遍就成了真理”,因為無人駕駛這項破壞性技術的普及使得對車的觀念将發生極大變化,社會的價值觀也會随之改變,未來的小孩不見得從小會接收到太多這類“想要擁有車”的想法,就如同現在大部分人不會非要擁有一輛自行車一樣。

無人車能緩解堵車嚴重的情況,一大原因是車的總數量會減少,另一大原因則是能建構一個車與車以及道路物體(如紅綠燈)之間的物聯系統,通過運籌學和計算機視覺算法進行統一的智能路徑規劃和決策,有效錯開高峰期。然而對于Elon Musk來說,這還是遠遠不夠的。為了減緩交通擁堵,他成立了The Boring Company,規劃在地下挖超級隧道,通過電動托盤實作紐約到華盛頓隻要30分鐘(具體行駛過程見以下視訊)。整個路網依靠電力驅動,而托盤的動力系統等關鍵技術則來自Musk的另一家公司Tesla。當然很多人覺得這個計劃不太現實,成本太大,但又都不敢下定論,畢竟想要做這個事情的人,可是那個把幾個行業都颠覆了個遍的Elon Musk啊。

https://www.bilibili.com/video/av10173000/?from=search&seid=13650802352394701105

在Elon Musk眼中,無人駕駛汽車還有個比較神奇的用途,那就是其在多個場合提到過的個體無人計程車的概念。假如你購買一輛全自動駕駛車,你可以利用上班時間或者晚上在家裡的時間,放自駕車出去營運掙錢,也許沒幾年就能把買車的錢掙回來了,這确實是筆不錯的買賣。到時候Uber和滴滴的周圍就會憑空冒出很多競争對手,而各家公司想必也會出台新規定:不能在上班時間遠端遙控自家車,就如同現在規定不能在上班時間炒股玩遊戲一樣。

以上叙述展現出無人駕駛汽車将會極大改善我們日常的生活模式,但相信其發展也不會一帆風順。仍有很多人對無人車抱有頗多顧慮,認為其可能會出現系統性的失控,造成大規模事故。是以從這一點上也可以看到,人們在憧憬未來的同時,也一直在擔憂人工智能發展的方向問題。

【文章】中Hassabis和吳恩達這些AI圈内的人認為現在一些關于AI的危言聳聽的言論是非常不切實際的,而Nick Bostrom對此的回應是“一些AI研究者事實上和他有着同樣的顧慮”。這并非是空穴來風,在2017年1月舉辦的阿西洛馬人工智能大會(Asilomar AI Conference)上,AI和非AI界的知名人物都有參加,其中就包括【文章】中的幾個主要人物: Elon Musk,Nick Bostrom,吳恩達, Demis Hassabis, Yoshua Bengio,Yann LeCun,Geoffrey Hinton,Patrick Lin等等(不過裡面沒有霍金,估計是來不了。。)。經過多天商讨大會最終确立了關于未來人工智能發展的23條基本準則。

事實上,人們想要確定人工智能會向人類有利的方向發展,這是有道理的,因為人類的獨有領地正一步步被吞噬。Hans Moravec做了一張 “人類能力景觀圖(Landscape of Human Competence)“,這張圖的海平面是目前人工智能的發展階段,随着海面的不斷升高,人類的技能也逐漸被機器所掌握。可以看到算術,棋類運動(圍棋、國際象棋)已經沒入海底了,駕駛、投資、翻譯也是岌岌可危,而處在山頂的藝術、科研、寫作等項目暫時還比較安全。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

然而,AI的創作能力已然不容小觑,至少看上去能把大部分人吓唬住吧。比如MIT開發了一個以《弗蘭肯斯坦》作者瑪麗·雪萊為名的編寫恐怖故事的AI系統:Shelley。這套人工智能系統通過循環神經網絡(RNN)+線上學習的組合模式,使用美國知名論壇網站Reddit上14多萬篇詭異故事作為訓練材料,具備了自我編寫恐怖故事的基本能力。現在Shelley每隔一段時間就在推特上分享一則恐怖故事。而相比之下,微軟的小冰則是直接出版了一本詩集。

下圖來源于Justin Johnson在CS231n裡的PPT,顯示的是使用卷積神經網絡進行藝術風格轉換。

關于《經濟學人 —— 人工智能專題報告》的一些解讀

很多人覺得現今人工智能的發展簡直令人目不暇接,各種各樣新玩法層出不窮,這自然得益于科學家們多年來對于未知世界的探索。《***》的這篇文章講了有“深度學習教父”之稱的Geoffrey Hinton的一則轶事:

  • 作者問:“你覺得人類能控制超智能體嗎?”
  • Hinton:“這就像是在問,小孩能控制自己的父母嗎?這是有可能的,因為二者存在血緣關系,但除此以外沒有太多案例顯示低智能體可以控制高智能 體。”
  • 作者:“那麼為什麼你還在做你的研究?“
  • Hinton:“我可以給你一些官方答案,但真正的原因是:探索未知實在太有誘惑力了。當你看到一項美妙新技術處于萌芽期時,會滿腦子隻想着先把它 做出來。隻有在完成之後你才會去苦惱該如何使用它。”

科學家的這種一往無前的探索精神,對于科技的發展無疑是好事,但同時也應該清楚地認識到這其中的隐患。Nick Bostrom曾說:”技術的飛速發展使我們将要面對的是’philosophy with a deadline‘”。确實是如此,随着人類的獨有領地被一步步吞噬,很多哲學層面的問題也變得日趨緊迫。哲學家們花費了上千年讨論存在、道德、意識、***意志等問題,至今沒有達成共識。在柏拉圖和笛卡爾的時代,這并不是什麼大礙,因為所有的超智能體都隻存在于人們的想象中;然而到了21世紀,這些争論正從哲學界慢慢轉移到了人工智能界,未來超智能體的出現将使原先抽象的哲學問題變為具象的道德問題。

總的來說,我們希望自己創造出來的超智能體既很聰明,又能時刻恪守我們所制定的道德準則,這确實很像是在玩火。更何況這裡面有個隐含的假設,我們一般所說的”聰明“有個前提,那就是這個”聰明“是能被使用在我們本身看重的事情上面的。【文章】第五部分中列舉的”回形針極大化“的思維實驗,如果真有AI瘋狂地收集回形針,估計人們會認為其是”人工弱智“而非”人工智能“;而反過來,如果一個AI能幫我們瘋狂地收集錢财,那我們必然會認為它很聰明(如果有AI能把整個地球改造成回形針工廠的話,那我真覺得這是絕頂聰明)。是以我們人類的需求很簡單,不是要很聰明的AI,而是要”符合我們價值觀“且“不會反噬我們”的聰明AI。是以關鍵問題是在将來我們的目标是否會與AI的目标合體,但這裡又衍生出幾個問題:如何賦予AI目标?随着AI變得越來越聰明,其目标還會保持下去嗎?如果AI的智力超過了人類,它們還會遵守我們的目标嗎?我們人類的終極目标又是什麼?在真正的超智能體出現之前,這些都是必須要回答的問題。否則到時候我們的感受大概會與【文章】中的英國詩人Robert Southey類似 :

  • 英國詩人Robert Southey宣稱:“蒸汽加速了一個已經在運作的程序,卻似乎變得過快了。”他擔心“這種強大力量的發現”已經早于”我們知道如何正确使用它”。

人們之前對AI多年來的龜速進展大失所望,然而諷刺的是,現在很多人卻認為它發展地太快了。本篇文章在冷靜客觀地評估後,我沒有得出任何結論,反正明天太陽會照常升起,而50億年之後地球也終究會毀滅,不是嗎?

Reference:

[1] Ricardo J. Caballero. Creative Destruction  

[2] Clayton Christensen. The Innovator\'s Dilemma

[3] McKinsey Global Institute. Artificial intelligence: The next digital frontier? 

[4] McKinsey Global Institute. A Future that Works: Automation, Employment, and Productivity   

[5] Accenture. How Artificial Intelligence Can Drive China’s Growth

[6] Max Tegmark. Life 3.0

[7] 弗裡德裡希·尼采.《查拉圖斯特拉如是說》

[8] 伊曼努爾·康德.《純粹理性批判》

[9] 亞瑟·叔本華.《人生的智慧》

[10] 鹽野七生.《羅馬人的故事》

[11]吳軍.《數學之美》

[12] 特德·姜.《你一生的故事》

[13] 周志華.《機器學習》

[14] 曹天元.《量子實體史話》

[15] Aurélien Géron. Hands-On Machine Learning with Scikit-Learn& TensorFlow

[16] Richard S. Sutton & Andrew G. Barto. Reinforcement Learning: An Introduction

[17] Fei-Fei Li & Justin Johnson & Serena Yeung. CS231n 

[18] Wikipedia. Basic Income  

[19] 卡爾·馬克思.《資本論》

[20] 米爾頓·弗裡德曼.《***選擇》

[21] 讓-雅克·盧梭.《社會契約論》

[22] 費·陀思妥耶夫斯基.《卡拉馬佐夫兄弟》

[23] 列夫·托爾斯泰.《戰争與和平》

[24] Wikipedia. Autonomous car 

[25] TED-talk. The future we\'re building -- and boring 

/