天天看點

專訪 IJCAI 17 傑出青年科學家夏立榮博士:以人為本,是群體決策的必由之路

<b>本文講的是專訪 IJCAI 17 傑出青年科學家夏立榮博士:以人為本,是群體決策的必由之路,</b>

<b></b>

在 IJCAI 2017的 Early Career Spotlight 環節上,共有15位來自全球各地的傑出青年科學家來到現場分享他們的學術成果,其中有四位華人學者,他們分别是:

新加坡南洋理工大學計算機科學與工程學院南洋助理教授安波; 清華大學交叉資訊研究院青年千人助理教授唐平中; 美國倫斯勒理工大學計算機學院助理教授夏立榮; 美國亞利桑那州立大學計算資訊和決策系統工程學院助理教授何京芮。

雷鋒網AI科技評論将先後放出這四位華人學者的系列專訪,夏立榮博士的本篇專訪為此系列的第三篇,往期報道可檢視:

能玩德撲也能保障國家安全,南洋理工安波博士闡述算法博弈論的魅力何在?

專訪清華大學唐平中博士:如何在網際網路背景下進行計算機科學與經濟學的交叉研究?

夏立榮,美國倫斯勒理工學院(RPI)計算機系助理教授,在 2013 年加入 RPI 之前,他是哈佛大學計算與社會研究中心的 CRCS fellow 和 NSF CI Fellow。他博士和碩士分别畢業于杜克大學計算機系和經濟系。他的研究主要集中在計算機科學和微觀經濟學的交叉研究。他是 Mathematical Social Sciences 的副主編和 Artificial Intelligence Journal 的編委會委員,曾任 Journal of Artificial Intelligence Research 的編委會委員。他獲得過 NSF CAREER award,Simons-Berkeley Research Fellowship, IEEE Intelligent Systems 的 AI's 10 to watch 之一。

在 IJCAI 2017 的 Early Career Spotlight 上,夏立榮博士發表了題為《Improving Group Decision-Making by Artificial Intelligence》的演講。從「人機合作」和「以人為本(human-aware)」兩個角度,如何了解改善群體決策的研究的?

夏立榮博士認為,群體決策是人類社會中十分常見的問題。大到政治選舉,國防,醫療,經濟等重要決策,小到企業招聘,朋友聚餐點菜等,都屬于群體決策的範疇。「困難之處在于人們的偏好經常不一緻,導緻經常不存在對所有人都最優的決策。如何在整體效率和公平性之間找到一個平衡,甚至如何定義效率和公平性,是解決問題的關鍵。關于這個問題,傳統的研究主要集中于經濟學領域尤其是社會選擇理論中(social choice theory)。」

先進的群體決策理論和應用與 AI 的發展方向密不可分。夏立榮博士告訴雷鋒網 AI 科技評論,斯坦福大學的 AI 百年研究報告指出(雷鋒網 AI 科技評論按:即《Artificial Intelligence and Life in 2030》,報告全文可在「AI 科技評論」微信背景回複「2030」下載下傳),未來 AI 的發展會更多地強調人機合作以及以人為本,而其中,群體決策就是一個典型的例子:智能系統需要從人類擷取偏好和資訊,而最終決策必須考慮對人類的影響。「比如說,在群體決策這個問題上人機合作包括如何擷取人的偏好,如何更好的促進資訊共享,如何找到不一緻的觀點等;了解人類方面包括如何做出公平和魯棒的決策,如何考慮人類的政策行為等。」(雷鋒網 AI 科技評論按:具體的研究内容,可參見新近出版的《Handbook of Computational Social Choice》,出版社提供免費 PDF 下載下傳)

根據我們的認知,在改善群體決策的過程中,AI 所承擔的風險與實際應用的場景大小呈正比。越高風險的決策往往更加複雜,人類也會更加謹慎,那麼人類如何在 AI 的幫助下,實作應用層面的風險控制及效率提升的平衡呢?根據夏立榮博士的說法,我們首先需要一個人類對于風險和效率的偏好模型。所幸經濟學,心理學以及決策論有許多成熟的準則。在 AI 的幫助下,人類可以更好更快的探索風險和效率最好的平衡。但具體應用的時候又是如何知道一個人對于風險和效率的态度呢?這裡又回到前面提及的人機合作和以人為本。「智能系統需要知道人類的态度,了解人類的需求,進而設計有效的算法。」

Early career spotlight 是 IJCAI 2016 新增加的項目,報告者需要由 IJCAI 程式委員會成員提名。從夏立榮博士的個人感覺而言,有點像專門為青年學者準備的特邀報告,研究做得越好,被邀請的幾率越高。今年能受邀參加 IJCAI  2017的 Early Career Spotlight 環節,夏立榮博士認為于他而言是一個很大的榮幸,希望能借助這個機會,讓更多的人了解群體決策(甚至更廣義的經濟與計算方向)的重要性。

同時,夏立榮博士也非常謙遜地告訴雷鋒網 AI 科技評論,除了 Early Career Spotlight 演講嘉賓以外,還有很多非常值得關注的科學家,「比如 IEEE Intelligent Systems 每兩年一度評選的 AI's 10 to watch。其中有不少華人,包括哈佛的陳怡玲老師,RPI 的季姮老師,清華的朱軍老師等。偏理論一點的上海财經大學的陸品燕老師的工作也非常值得關注。」

在 Early Career Spotlight 的演講中,針對統計、計算及經濟學三個次元,夏立榮博士向聽衆詳細介紹了自己的三個工作方向。

統計和機器學習方面,夏立榮博士和合作者的貢獻主要在于刻畫和計算統計意義上最優的群體政策。這個方向最經典的結果是 1785 年的 Condorcet Jury Theorem:在一定的假設下,所有人投票選出的決策優于單個人做出的決策。這個思想和機器學習中的內建學習思想類似。「具體來講,我們提出了廣義随機效用模型的第一個參數估計算法,第一個主動學習算法,以及第一個混合模型的可辨識性定理。我們第一個在群體決策的背景下用社會選擇理論中的公平性原則來衡量貝葉斯估計,并證明了第一個關于貝葉斯估計的不可能定理。我們還提出了一個 Mallows 模型下貝葉斯推斷的蒙特卡洛算法,并第一個給出了混合時間的理論上界。」

計算方面,夏立榮博士及團隊的主要貢獻在于研究如何用高計算複雜度防止群體決策中的操控現象(manipulation),即群體中的某些個體通過撒謊而獲得對他自己更加有利的結果。通過研究,團隊的主要理論結果顯示:高計算複雜度在某些群體決策系統裡可以比較好的防止操控現象,而在另外一些系統裡則不是那麼有效。

「在經濟學方面,我們的一個主要研究方向是組合域投票(combinatorial voting)。即,人們經常要對若幹個相關的問題同時做出決策。」比方說,假設我們要決定下一年度的财政支出計劃。對于國防,教育,醫療,養老,工業,金融,基建等問題都要決定是加大投入,減少投入,還是維持不變。由于決策空間過于複雜,如何擷取個體的偏好都成為了一個非常具有挑戰性的問題。夏立榮博士及合作者通過利用知識表示(knowledge representation)中的方法讓個體表達偏好,并在此基礎之上設計高效和公平的群體決策機制。

目前,夏立榮博士在計算方面的工作和經濟學方面的工作可以在 《Handbook of Computational Social Choice》 的第 6 章和第 9 章找到。而他在統計和機器學習方面的研究被 《Synthesis Lectures on Artificial Intelligence and Machine Learning》 邀請,計劃于 2019 年初出版。

而對于這三個工作方向,夏立榮博士向雷鋒網 AI 科技評論表示,它們能主要應用在日常生活中的群體決策場景。社會選擇理論和機制設計理論的傳統做法是對特定的場景單獨設計一個機制,經典案例如總統選舉或拍賣環節。然而,随着智能群體決策系統更加廣泛和深入地進入我們的日常生活,每次群體決策都找專人單獨設計一個新的機制并不現實。夏立榮博士的想法是将這個設計過程自動化:決策者可以随意提出這個機制需要滿足的公平性原則以及其他要求,随後架構能自動計算出盡量滿足決策者要求的機制。這并不是一個簡單的優化問題,并且類似的想法在機制設計中已經被提出,但以往的技術并不能用到群體決策問題中。

不過夏立榮博士也提及,其中最大的挑戰可能是如何勸說大衆使用機器設計出來的群體決策機制。「人們在做決策的時候還是傾向于使用自己能完全了解的機制,而機器設計的機制可能超出了一般人的可接受範圍。如何自動設計簡單的、可解釋的機制是我們正在研究的目标。」

在決策中,不确定條件下決策分析是一個非常成熟的方向。「從模組化的角度來講,我認為不确定條件下決策分析的難度在于,沒有一個統一的理論能完全解釋人類對于不同決策的偏好。實際應用中,決策論中一些常用的目标經常被用到,比如 maximum expected utility, minimax regret 等。技術上來講,主要難點在于對應的單目标或多目标規劃問題複雜的經常很高。」

夏立榮博士表示,最近 RPI 和 IBM 合作建立了一個新的實驗室 Cognitive and Immersive Systems Lab,旨在研發新一代的智能決策系統。實驗室主任蘇輝教授的願景是,希望這個系統能從人類參與者之間的自然交流擷取資訊,搜尋并将新的資訊整合回報,最終人機合作達到預設的目标,比如做出一個群體決策。在這個系統中,智能系統通過對人類參與者的語言,動作,表情等進行分析,進而抽象出情感,偏好等相關資訊。基于這些資訊的極大不确定性和決策空間的複雜性,各種方法都可以在其中發揮應用餘地,包括機器學習、多目标規劃以及優化等。

而在開源當道的大環境下,夏立榮博士所在的研究小組也做了一些開源的嘗試。 這個名為「OPRA」(Online Preference Reporting and Aggregation)的開源系統。這個項目一開始是為了給讨論課上的同學們安排文章和報告文章的日期。同學們對文章和日期的偏好有時候有很大沖突,是以很難找到一個讓所有人都滿意的日程安排。「這裡的情況類似于組合域投票,很多問題都是現有的方法無法解決的。比如如何有效地擷取人的偏好,如何有效地找到沖突以及幫助人們解決沖突等等。當時就在想建立一個平台,整合最新的理論結果來幫助人們做群體決策,比如前面所講的,我們在機器學習方面群組合域投票方面的工作。」

根據夏立榮博士的介紹,OPRA 目前主要用在 RPI 内部幫助學生和老師做決策。除了制定讨論課日程外,OPRA 還用于讓 RPI 計算機系學生通過投票選出最佳 poster 獎,在課上讓學生決定答疑日期和複習題目,舉行課堂小測驗等等。而夏博士表示,短期内希望以 RPI 為平台來開展更廣泛的應用,比如基于偏好比對老師和助教,幫助學生尋找兼職等。「我們正在與 RPI 學生會合作,希望将 OPRA 用到一年一度的學生領袖選舉中。長期來講,我們希望 OPRA 能成為最好的線上群體決策平台。」

由于是完全開源的系統,如果任何人想使用部分或者全部代碼,或者有任何問題和建議,夏立榮博士表示非常歡迎給他來信。(OPRA位址:http://www.opra.io)

「有趣、有用」,這是夏立榮博士提及人工智能、多智能體及不确定性決策領域的最大感觸。他表示,經濟學和其他社會科學給傳統的 AI 系統優化帶來了很多有趣的角度,比如博弈論中考慮的人類參與者的動機以及對整個系統的影響,又比如機器學習算法的公平性等。另一方面,夏立榮博士認為 AI 技術的發展幫助我們解決了許多問題,比如幫助人們更好的做出群體決策。同時又派生出了很多新的研究方向,比如 AI 和道德,AI 和可持續性發展等等。

而研究的下一步,夏立榮博士計劃按照斯坦福 AI 百年研究報告所揭示的,以更好的人機合作和以人為本為目标,繼續發展群體決策理論和建構群體決策系統(比如 OPRA),特别是從統計、計算、以及經濟學的角度來設計并衡量群體決策系統。

夏立榮博士認為,因為新的事物需要花一定的時間才能被人們接受,是以決策機制的實際應用和很多其他 AI 系統一樣,直接廣泛應用的難度很大。是以,他近期計劃将研究重點放在其中相對風險比較低的日常生活場景上,當人們逐漸習慣并接受之後,再擴充到更重要的決策場景。

<b>本文作者:奕欣</b>

繼續閱讀