天天看點

任賴锬 王晨骅|陪伴型人形機器人的升格演化、形象區分與法律規制

任賴锬 王晨骅|陪伴型人形機器人的升格演化、形象區分與法律規制
任賴锬 王晨骅|陪伴型人形機器人的升格演化、形象區分與法律規制
任賴锬 王晨骅|陪伴型人形機器人的升格演化、形象區分與法律規制

陪伴型人形機器人作為智能技術疊代驅動與社會情感需求催生下的産物,因其獨特的人形外觀、互動模式及關懷功能而被适用于康養、教育、社交等諸多領域。然而,盡管其使用者市場已初步成型,但規制市場秩序的底層規範體系仍待架構,其中“法律地位為何”的核心問題也未被法律予以明确回應。對此,不妨基于技術運作邏輯與歸責可行性考量,可發現這類智能體并不具有自我意識與獨立承責能力,其應作為“權利客體”而非“法律主體”,也即其本質不超越“物”的範疇。進一步地,需要聚焦物格理論下的具象法律規制邏輯:一方面,在既有階段,陪伴型人形機器人呈現“工具”與“非人類”的“一般物”形象,公衆認可度與知悉度較低,行為趨于謹慎加碼,故應主要适用一般财産法規制模式,以倡導性規則與一般限制性規則為主的備援設定對沖加碼。另一方面,在發展階段,人機關系從一般互動深入為社交互動,此類機器人呈現“傾訴者”與“類人類”的“倫理物”形象,但由于公衆事實觀念與法律觀念的異步性,行為趨于折扣,故應予特殊立法,嘗試設定嚴格限制性規則以對沖折扣。由此,出于對不同階段機器人的形象區分、升格演化考慮,應适用不同法律規制模式,以期建架動态秩序體系,真正保障陪伴型人形機器人的價值實作與行業發展。

任賴锬 王晨骅|陪伴型人形機器人的升格演化、形象區分與法律規制

引言

“人形機器人”的近代意義概念與有形實體輪廓濫觞于20世紀60年代的日本,從彼時至今,之于人類自我追問的念力、替代性質救助的良願、技術自展力量的推進等原因,諸多研究者前赴後繼地以實踐因應着“此類機器人何需‘類人’?需何‘類人’?”之诘問。2023年10月,工業和資訊化部印發的《人形機器人創新發展指導意見》從宏觀政策層面重申推進人形機器人這一技術性議題的重要性,并且指出兩個關鍵性時間節點與目标圖景,人形機器人行業有望于在專項性政策扶持下得以進一

步發展。同時,在留守兒童、空巢老人等社會問題趨于嚴重,以及家庭情感、社交情感等的再重申與深度需要的社會現實背景下,一類以“情感陪随-現實陪同”為産品目的、以“資訊互動—自我修正”為技術核心的陪伴型人形機器人應運而生,例如以“人類情感解碼、擁抱與回應”(Human emotions decod-ed,embraced,echoed)為設計初心,運用于教育、護理等諸多場景之中的人形機器人Pepper。但從其整體發展及規制角度來看,陪伴型人形機器人尚待規模化、商業化,且有關乎此技術的明确且成體系的治理規則尚付阙如,也即陪伴型人形機器人在既有階段是新興并亟待規制的産品概念。為填彌技術蝶變“在先性”與制度設計“滞後性”之間的缺隙,陪伴型人形機器人這一技術概念在法律秩序中的基本定位與基礎問題應當是最先予以确認與因應的一環。

一、問題的提出:“陪伴型人形機器人”是權利客體抑或法律主體?

(一)底層理論:“權利客體說”與“法律主體說”的抉擇與争鳴

現行法律體系中缺乏對于陪伴型人形機器人法律地位的确認,造成實際應用中法律價值指引的缺位。在亟待确認其法律地位的現實動議下,不同學者對此有着不同看法,其中最為核心的争點在于這一類機器人應不應當具有法律人格。在民法領域,法律人格通常被了解為“司法上的權利和義務所歸屬的主體”,包括自然人主體和法律拟制主體兩種存在形式,有鑒于此,人工智能在本質屬性上的法律概念厘定問題,學術界形成“權利客體說”與“法律主體說”的分歧,目前有限的研究中,支援與反對意見針鋒相對,或可作為陪伴型人形機器人法律地位探讨的底層法理基礎。

“權利客體說”認為無論從法學層面或是哲學層面探讨,陪伴型人形機器人并不具備人類理性,本身無法從工具本質的範疇中剝離開來,為其創設法律拟制主體資格也難解人工智能的規制困境,故将其作為拟制之人以享有法律主體資格在法律上尚有斟榷之處。大陸學者對此已經做出諸多頗有見地的研究,支援人工智能權利客體資格不變的學者觀點以楊立新教授提出的“物格屬性說”、李愛君教授“法律行為說”和劉練軍教授“獨立性否定說”為代表,學者從“自我意識論”的罅隙和結果主義的視角給人工智能權利客體的法律地位“正名”。

亦有學者對“權利客體說”持相左意見。“法律主體說”支援摒棄生物學上“人”的定義限制而位格加等地承認陪伴型人形機器人法律主體的地位。該學說大概包含“實用主義說”“權利主體說”和“技術原理說”三方面觀點。贊成者論證之要素在于:(1)現階段人工智能已具備主體性與人格性。(2)法律主體的範圍不斷擴大,人工智能擁有法律主體資格并無技術障礙。(3)可有效調整人工智能時代機器人行為的責任配置設定與刑法規制。此外,亦有域外法律觀點與實踐從多元度界定人工智能機器人的“人格”法律屬性,如哲學家拉梅特裡、艾博特教授和戴維斯教授認為,人工智能應當擁有法律人格。立法機構也走向前台:歐盟法律事務委員會就“拟制電子人”送出歐盟機器人民事法律規則立法提案;俄羅斯專家起草立法建議稿格裡申法案以期賦予人形機器人民事法律地位;沙特更是存在直接賦予智能機器人以公民身份的執行個體。

總而言之,存在于現實場景之中的兩種學說立場在一定程度上均有其正當性與合理性。進一步而言,大陸法律規範體系需廓清人形機器人的真正法律地位,以消解人工智能時代引發的諸多法理困惑。而就比較向度予以審視,筆者認為,基于陪伴型人形機器人的技術邏輯性與對其的規制契合度考慮,“權利客體說”是目前大陸應當采取的治理邏輯。

(二)駁斥一:自我意識論與算法牽引的差異

現代法關于“主體”的概念界定建立在古典哲學對人的本質的深刻了解上,法哲學基礎深厚。近代西方哲學家笛卡爾提出“我思故我在”命題,将“我思”(自我意識)置于認知起點的位置,證成“自我意識”是主體性的前提。此外,在西方哲學傳統中,“自我”與“主體”可以等同使用,“自我意識論”構成“法律主體論”的核心。也即,贊成“法律主體說”理論的一大核心觀點在于認為陪伴型人形機器人具有自我意識。但實質上,陪伴型人形機器人隻是代碼邏輯與自我指涉的産物,此技術邏輯決定其并不具備自我意識。

具體展開而言,其一,陪伴型人形機器人受代碼邏輯支配,尚不具備“原初思想”次元的自我意識。自我意識是一種“以自我為思考對象的行為”,按照斯坦福哲學百科全書對“自我意識”的解釋,自我意識的含義被概括為三類:體驗說(從“内部”意識到自身的存在)、認同說(主體獲得對他人的肯定)和反思能力說(有意識地思考自己的能力),将自身的生存作為第一要務是主體性的必要構成部分。然而,以陪伴型人形機器人為例的所有人工智能産品,究其本質,是對人的思維邏輯的模仿,不具有人的主觀能動性。陪伴型人形機器人的底層邏輯是資料的統計分析,深度應用的主要依據是算法牽引(機器人“大腦”的控制子產品裝備着人類編制完備的程式,在識别或感覺到新資訊時依據算法獲知響應能力)。遵循這一邏輯,陪伴型人形機器人做出的看似是“自我決策”下的自主行為,其實設計者的算法架構才是背後的“提線者”。如何與使用者互動、互動程度、在何種狀态下互動等問題都是設計者在确定初始代碼時寫入算法賦予陪伴型人形機器人的,人機互動使得陪伴型人形機器人獲得類似人類的法律主體地位,但被動的獲得方式實則将機器人的“自我意識”懸擱。此外,“計算機之父”圖靈提出的“圖靈測試”是機器智能領域最著名的主體性測試,在此場景中,人類裁判會在無實體接觸的情況下與一台電腦和一個人分别進行簡短的對話,結束後辨識對方是人類還是機器,迄今為止未有任何陪伴型人形機器人能通過嚴格的圖靈測試。圖靈測試的巧妙之處在于“自我意識”“思維”“智能”等概念難以通過定義闡釋,故使用相當結果導向的辨識方式(将具有自我意識的人類作為參照)以消弭概念思辨的壁壘,可直覺用于機器人自我意識的驗證。除此之外,“鏡像自我識别實驗”作為學界公認的驗證自我意識存在的可靠方法,在近期智能機器人研究中為自我意識識别路徑提供參考。然而實驗中,經研究團隊建構“身體自我模型”,随後訓練機器人進行“多感覺融合”,以學習自己身體部位,最終機器人才成功識别。這一例證恰好可作為“陪伴型人形機器人尚不具備自我意識,隻是代碼邏輯和算法牽引的産物”的合理注腳。

其二,陪伴型人形機器人是自我指涉效應牽引下産物,尚不具備“自我反思”次元的自我意識。陪伴型人形機器人依賴初始碼及算法邏輯進行決策,産生自我指涉(Self-referential)效應。“自我指涉”效應意為将人或物變為資料之後,作出決定和分析的依據隻有這一資料,在運作程式中具有自足性與封閉性。對于陪伴型人形機器人而言,一旦初設資料發生錯誤或本身就存在偏見,如不符合其作為“情感寄托”的角色特點或有違人類的道德理性,資料和算法閉環使得這一錯誤很難被系統本身糾正,也難以從外部進行有效的糾偏,系統的運作隻會不斷循環其自我邏輯,自我産生新的代碼和模型來不斷強化錯誤,此即自指效應上的“自我強化”特性。人工智能時代人類的諸多行為會留下海量的電子痕迹,資訊技術使其成為可供整合、處理和分析的資料庫,進而形成具有自動化決策功能的區分來源。資料搖身一變成提供各種服務的“大資料服務”的掌控者,人類無法擁有或控制這些資料,成為“被強加給個人的量化身份”。遵循這一邏輯,陪伴型機器人的運轉沿着自我指涉效應指引的路徑,功能路徑的實作則是算法牽引的結果,推敲“自我意識論”的“反思能力說”後不難發現,自我意識是主體獨具的反思能力,陪伴型人形機器人的自我指涉與自我強化效應足以說明其本身并非具有自我意識的主體,一定程度上被歸納為“類自我意識”,即類似人類心理與情感機制的意識,作為證成法律主體地位的核心要件,自我意識的疏缺決定陪伴型人形機器人“權利客體論”的合理性。

(三)駁斥二:拟制主體論與責任虛置的沖突

以上論證從自然本性的角度排除陪伴型人形機器人作為法律主體的可能性,然而,人工智能時代随着陪伴型人形機器人的拟人化,逐漸承擔與人建立親密關系的情感邏輯,有學者建議确立新的法律主體類型如“電子人”以表征陪伴型人形機器人的法律地位,但筆者認為這一“拟制主體論”的觀點實無必要,故依舊持反對意見。申言之,拟制主體論将導緻陪伴型人形機器人責任虛置,作為以與人類進行互動交流為最終目的的“人造陪伴物”(Ersatz Companion),陪伴型機器人被拟制為法律主體将會帶來責任歸責的困局。

現階段,陪伴型機器人的社會互動性和拟人情緒性已經達到較高的程度,服務領域集中分布在老齡陪伴、老年人護理、兒童陪伴與獨居女性陪伴領域。試問,陪伴型機器人如果洩露使用者隐私,利用使用者資料脅迫接受其服務的使用者,抑或在陪伴過程中侵犯使用者人身自由,責任由誰來承擔?法律對民事主體地位的承認是承擔責任的功利标準,探讨陪伴型人形機器人的法律責任,毋庸置疑應當立足于人工智能産品的法律地位。對此,龍文懋教授曾有過精辟的陳說,其認為從自然理性的層面考量,适格的法律主體必然是理性、情感、欲望的結合體,陪伴型人形機器人不具備意思表示,無法成為利益的負擔者。從拟制主體的層面考量,“拟制主體論”在論證上也難以自洽。筆者贊同以上觀點,目前的陪伴型人形機器人的法律責任問題,本質上隻是産品責任問題,實踐中以過錯責任和嚴格責任為歸責标準,通常由機器人的設計者、制造者和使用者來擔責。但是在陪伴型人形機器人是法律主體的立法預設下,人工智能緻害責任承擔問題并未得到立法的建構。此外,基于獨立地位引緻獨立責任的法律邏輯,與陪伴型機器人有關的法律責任問題,如緻人損害之民事責任問題,利用人工智能犯罪之刑事責任問題,無論是歐盟抑或俄羅斯并未賦予相應的解決措施,但均排除陪伴型機器人本身的責任承擔,可見陪伴型人形機器人的法律主體地位實際上形同虛設。綜如所述,陪伴型機器人的拟制主體論并無實益。

(四)小結:應作為權利客體的陪伴型人形機器人與其物格展開

自以上駁斥結論出發,可見,陪伴型機器人的法律地位應為權利客體而非法律主體。就此而言,陪伴型人形機器人之本質是民法上的“物”。楊立新教授曾在其著作中提出對不同類型“物”予以分類規制的“物格理論”,闡述在于,民法上的物被區分為三種物格,分别是“一般物格”“特殊物格”與“倫理物格”。物格制度的開創能夠實作法律對實踐中多樣化的物的規制需求。在目前階段,筆者認為,包含陪伴型人形機器人在内的人工智能産品,尚未達到需被納入“特殊物”或“倫理物”範疇進行保護的程度,仍屬于“一般物”的種類。但在技術疊代的未來,具有高度“類人性”的陪伴型人形機器人,或可能被歸入物格的其他等級予以特别保護,也符合人工智能法律規制的特殊需求。

二、既有階段:僅作為一般物的人形機器人及其财産法規制邏輯

(一)時空初階:工具形象與“非人類”觀念

德國哲學家康德(Kant)最早提出“圖式理論”(Schema Theory),認為人類在認知過程中會通過環境的互動和經驗積累形成各種圖式,并在認知過程中不斷調整和更新這些圖式。圖式(schema)的本質為資訊網絡,是存在于記憶中的認知結構或認識結構;是在處理外部資訊時,記憶從存儲中調取腦海中已有的同類資訊作為處理架構的模闆,例如人在看到紅燈亮起時就停下車,因為大腦自動将其歸類為“交通規則”。既有階段,陪伴型人形機器人作為一般物在人類社會中同樣具有代表其價值的圖式。

其一,在時間次元,現階段陪伴型人形機器人扮演的角色屬于一般意義的“工具形象”範疇。即便陪伴型人形機器人在人機互動中表現出情感行為,但目前還無法完全模拟人類情感。以功能型為導向,一般人機互動(如基礎對話和初級學習後的再互動)為陪伴型人形機器人運作的底層邏輯和主要功能。其主要作用是滿足不同使用者的陪伴需求,但并不具有自由意志,隻能在人類設計和編制的程式範圍内實施行為,其功能的發揮完全取決于人類的适用目的。初期的使用者在人工智能新技術的驅動下,也僅以“嘗試”的态度摸索新事物帶來的樂趣。考慮到技術的局限性以及人工智能可能帶來的倫理安全風險,使用者更多專注于陪伴型人形機器人的工具性服務功能,避免與機器人卷入深度社會情感關系。

其二,在空間次元,初階段的陪伴型人形機器人之外形及情感邏輯尚未達到真正生命體的狀态,且在社會之中因其未達到商業化而呈現出現頻率低、普及範圍小的使用态勢,故不足以“以假亂真”或“由此及彼”。具體而言,目前被授予沙特公民身份的智能機器人“索菲亞”(Sophia)代表目前人形機器人的最高水準,能夠出席會議和接受訪談,但并非所有陪伴型人形機器人都能達到這種極度類人機器人的水準,況且即便是面對如此高類人性的人形機器人,目前國際社會公衆仍未普遍産生

認同甚至出現“恐怖谷效應”(Uncanny Valley)。在此背景下,根據圖式理論的擴散激活機制(Spreading Activation),社會公衆在多數情況下在以“陪伴型人形機器”為中心的語義網絡中,無法激活其與“人”的關系聯想,少部分曾接觸過的人也大機率僅能激活“工具”概念或“人工智能”概念。立足當下,借用物格理論的架構,觀念中普遍認為是“非人類”的陪伴型人形機器人作為“一般物”以規制有其合理性。

(二)一般财産法規制模式:以備援對沖要求加碼守法行為的主要範式

備援的理論最早來源于工程學中自動控制系統的可靠性理論,意指系統的組成結構采用并聯方式連接配接組合,部分元件的失效不會引緻體系特定功能的喪失。在此,備援一詞更多使用的語義,乃重複配置的部件。随後盧曼在觀察法律論證時最先将備援概念引入資訊系統,認為備援是法律論證可能性的條件。備援機制為“維穩”而生,在基礎運作單元之上增加新的備援控制單元,以化解超出常态的突變,避免因系統的過度冗雜或無法運作的風險而當機。正如哈貝馬斯對盧曼的備援機制論辯歸納為:“降低判決的(其形成動力在别處)驚異值,提高人們對判決事實上的接受度。”規範的備援機制設定并非“層層加碼”,在風險社會背景下,其為防範風險提供一定的安全空間和緩沖地帶,此即對于桑本謙教授提出的“增設緩沖區、加強防火牆”“保留備援是為了應對罕見的意外”等合了解讀觀點。

法律上的備援主要展現為兩種情形,包括“對沖守法行為趨于加碼的備援”和“對守法行為趨于折扣的備援”。二者的區分标準在于潛在當事人是否會系統性地偏離預防事故的“最優均衡點”。如何配置設定事故風險成本将其圈限在一個“最優均衡點”上,就前者而言,當守法行為趨向于加碼時,法律規定就會相對寬松,以備援對沖加碼。遵循這一邏輯,陪伴型人形機器人使用者、生産銷售者與其他相關社會公衆面臨這一新興技術往往不能全面知曉其風險所在和規制所限,故而其行為(包括使用、生産行為等)将會趨于謹慎,為促進實用化普及,備援規範應當具有寬容或激勵功能,也即此類備援機制設定規範更多呈現在一般限制性規則與倡導性規則中。具體展開而言,在“奇點”來臨之前(“奇點”指人工智能達到人類智能水準的技術程度),撷取一般限制性規則對陪伴型人形機器人的法律責任進行規制具有“引導性”價值。再者,作為提倡當事人采用特定行為模式的倡導性規則,同一般限制性規則一般,對消解普及阻力至關重要。無論在何種規則中,這一類智能體始終是“物”,應适用一般财産法邏輯規制。

這種一般财産法的規制邏輯下,陪伴型人形機器人既有可能作為被侵害物,也有可能作為侵害工具。就前者而言,鑒于其“一般物”的法律地位,陪伴型人形機器人缺乏完全的權利主體資格。現如今雖不少學者均質疑機器人權利存在的合理性,但毋庸置疑的是“天賦人權”無法适用于機器人,陪伴型人形機器人尚不能與自然人享有同樣的權利保護待遇。鑒于傳統分類将權利劃分為人身權、财産權和政治權利等類型,被界定為“一般物”的陪伴型人形機器人不應享有諸如前述的法律權利,目前階段僅作為使用者或使用者的“财産”(物)身份存在。例如家中的陪伴型人形機器人被鄰居碰倒在地,機器人的使用者無權向對方主張人身損害賠償,僅能将陪伴型人形機器人置于“财産”的範疇進而主張經濟補償。

就後者而言,陪伴型人形機器人作為侵害工具應适用産品責任制度。舉一個典型例子,隐私作為人機互動領域的一個重要話題,陪伴型人形機器人的作用路徑将給使用者的隐私保護再增複雜性,面向陪伴型人形機器人,使用者一方面熱衷于分享個人隐私資訊,另一方面又敏銳審視隐私安全存在的風險。由此觀之,以家庭陪伴機器人為代表的各類陪伴型人形機器人,在突破人機互動限界的同時,随之而來的将極大可能産生資料隐私洩露的風險。如前所述,在法律上被認定為“産品”的陪伴型人形機器人,侵權責任承擔原則不得過度偏離原有類型,即過錯責任、過錯推定責任和無過錯原則(最嚴苛的責任)。例如,陪伴型人形機器人的社交特性引緻高敏感個人資訊的無意識披露,機器人的頻繁監控與電子儲存功能更是将隐私保護問題推至風口浪尖。它們一方面侵入使用者的私密空間記錄、搜集并處理隐私資訊,另一方面借助其自主決策和自主行動的能力對使用者權益造成損害。針對此現狀筆者大抵設想以下三種分類情形:(1)陪伴型人形機器人自身存在缺陷而造成隐私洩露的損害後果。就該情況而言,對于機器人的生産者、設計者或銷售者實行無過錯責任原則,由其承擔侵權損害賠償責任。基于對陪伴型人形機器人高度自決性的考量,其不可解釋性、不可預測性的鋪展可能會導緻機器人違背設計者所“賦予”的程式,以意想不到的方式行為。筆者認為,因循現代責任體系的歸責機制,陪伴型人形機器人超出預期的行為,以産品缺陷為由讓生産者承擔損害賠償責任難以得到證成,有待進一步探讨。在無過錯責任原則的威懾下、陪伴型人形機器人非“自我意識論”者的營構下,生産者、設計者和銷售者的産品标準将臻于至善,避免在設計制造與銷售中存在缺陷,消弭于技術發展同步增加的資料隐私潛在性風險。(2)第三人通過非法侵入的方式控制智能系統進而攝取使用者的隐私資訊。就技術而言,陪伴型人形機器人可能成為惡意第三人偷取使用者隐私的“工具人”,包含但不限于黑客、系統營運商、第三方軟體等身份者。楊立新教授将此種責任命名為“先付責任”,可解讀為“不真正連帶責任的變形”,由設計者、生産者和銷售者作為“中間責任人”首先承擔賠償責任,随之有權向第三人進行追償,此“中間責任”的建構目的在于打破被侵權人索賠無門的僵局。(3)因使用者的不當使用而導緻損害後果的發生。考慮到陪伴型人形機器人的功能特性,隐私洩露的被侵權者通常為使用者本身,如将該範圍外延拓展至使用者的親屬、好友,在歸責原則方面則應當适用過錯責任原則,由存在過錯的使用者承擔侵權損害責任。

需要注意的是,将一般财産法作為主要規制範式不等同于其為“唯一”範式,鑒于陪伴型人形機器人在應用場景上逐漸拓寬,多元複雜的安全風險與歸責難題日漸顯現,除一般财産法規制模式外,刑法等嚴格限制性條款實有設定之必要。基于對陪伴型人形機器人可能情景之預見,與之而來的包括機器人被濫用為犯罪工具的刑事風險,如機器人生産者、設計者或銷售者故意利用此類機器人非法搜集使用者資訊實施詐騙,第三人惡意破壞程式緻使陪伴型人形機器人傷人等情形下,引入刑罰具有适宜性。至此,以一般财産法規制模式為主要範式、嚴格限制性規制模式為補充範式的規制體系,将依循此類機器人的時代嬗變而初步建成。

三、發展階段:演變為倫理物的人形機器人與特殊立法規制模式

(一)時空推移:情感寄托與“類人類”置身

圖式既然是一種與記憶中給定概念相關,且連接配接豐富的資訊網絡,那麼随着人類與特定事物互動所形成的印象記憶的疊加,它的圖式形象與關系網絡也将發生變化。時空推移下,這種變化也必然地存在于社會公衆與陪伴型人形機器人的互動過程之中。

其一,在時間次元,陪伴型人形機器人在與使用者的不斷互動之下,将從“工具形象”轉向“情感傾訴者形象”。陪伴型人形機器人作為陪伴型機器人的特殊一類,也具有使使用者感受到情緒即時回應、無威脅感傾訴與共情性的“魅力”。這種設計導向促使使用者從初步接觸時的“使用心理”轉向為更為穩固的“依附心理”,進而超越“人機關系”的一般互動邏輯而邁向“類人際關系”的“交際”次元,也即産生社交反應,空巢老人在人形機器人的親密陪伴下,好似向家人傾訴日常、排解孤獨一般,進而可能将其視為自己的子女而非财産。此時,陪伴型人形機器人成為使用者的情感寄托,這種依靠映射出人與機器人之間已形成的猶如“同伴”般的新型親密關系,即便使用者知道機器人是無生命的,但仍會将其當作社會主體看待。

其二,在空間次元,陪伴型人形機器人在社會普及率不斷提升的趨勢之下,其作為“人”形象的“高現身率”将獲得社會公衆的群體認同,進而形成“類人類”形象共識。具體而言,陪伴型人形機器人的典型表征就是“具備類人的外觀”,當這一類“以假亂真”的面孔在漸趨多元、逐漸廣泛的應用中呈常态化,“好奇心理”将逐漸消失,取而代之的是平常化的合理性認可。可見,置身于陪伴型人形機器人身畔與加入人類社群無異,更何況其人類般的外表強化群體認同的确信,自此“非人類”觀念被“類人類”觀念所替代,甚至産生陪伴型人形機器人本身即為人類一員的身份認同。

(二)特殊立法規制之模式:以備援對沖趨于折扣守法行為的特别嘗試

在陪伴型人形機器人的發展階段,人形機器人緻害與被損害同樣是法律規制的兩方面重點,前者實際上與前述的既有階段規制邏輯是相近的:通過在先區分自身缺陷、第三人惡意使用與使用者不當使用三種情形,并根據不同情形根據民法之相關規制展開,以及就其中嚴重情形訴諸刑法。在其間可能有差異的,是侵權人可能利用陪伴型人形機器人特别造型/特别功能展開侵權,但這也僅是侵權方式的不同,法律規制的邏輯是不變的。但對于後者而言,由于陪伴型人形機器人的特殊意義,對其造成損害可能不單單僅造成财産損失這一後果,還極大可能造成精神性損害、社會性影響等更為嚴重的傷害類型。有鑒于此,有必要就陪伴型人形機器人被損害之法律規制設定予以擇出讨論。

屆時,生活在陪伴型人形機器人盛行的時代,這一類智能物對公衆的思維影響不單單展現在對其的形象反思這一直接性方面,更間接地、本質性地影響着社會公衆的道德決策甚至是法律決策,但由于道德标準的模糊性和本身的不穩定性,技術更多地影響着前者,進而公衆在道德思想的指引下作出道德實踐,展現意識決定行為的轉化過程。以此為例,這種技術對道德決策與行為的影響典型地表現為兩種類型場景,第一是環境影響下積極性轉嫁行為的作出,如兒童看見人類玩伴在欺淩人形機器人時,會誤認為這一行為(被誤解為欺負“人”的行為)是合理的,進而形成錯誤的道德價值觀轉而去欺負其他玩伴(不論是否是人類玩伴);第二是環境影響下消極性趨避行為的作出,如發現其他人類朋友向自己認可為“夥伴”的陪伴型人形機器人作出“逗趣性”行為時,将會從心理上感到不适,進而自人類道德評價角度認定其為無道德之人,進而選擇趨避性地疏遠。相對應地,在陪伴型人形機器人影響公衆法律決策與法律行為角度,也是相似的推演邏輯。此時,陪伴型人形機器人以“他者”身份出現并影響着公衆的生活,形成獨特的倫理意義,進而自“一般物”升格演化為“倫理物”。諸多學者贊同這一種性質定位,認為将這種人類最密切的“朋友”納入物格的“最高等級”進行規制符合倫理道德觀。

陪伴型人形機器人升格為倫理物自然需要對其進行特殊立法,這是因為公衆在這一領域的事實觀念和法律觀念并非同頻變化,具體而言,公衆與陪伴型人形機器人的互動關系是已愈發親密,但由于先前的以一般财産法為其主要規制模式的秩序系統,使得社會中形成公衆以一般法思想對待實際轉變的特殊物的現實格局,守法行為就會趨于折扣。與前文所述相對,此時便應設定嚴格限制性規則,以備援對沖趨于折扣的守法行為。一個與之相近的典型例子與良好佐證就是公衆對“虛拟财産”也同樣存在着事實觀念與法律觀念的差異:網際網路使用初期,人們無法将僅适用于網絡空間的虛拟财産與真實世界相聯系,甚至在盜号行為猖獗的時期往往在遇見類似場景時隻能自認倒黴,這種事實觀念實際在法律加速普及的今天仍然有之。但是,大陸司法機關在2015年時,就已适用刑法判決17起非法擷取網絡虛拟财産案件,然而相當一部分公衆并不知悉侵害虛拟财産能達到刑事嚴重性的程度。進而,犯罪分子往往都是抱着“低風險—高收益”的當然想法展開非法行為,直至被逮捕時才發現“法的實然現實”與其腦海中“法的應然狀态”之間的巨大差距。正是因為如此,趨于折扣的守法行為也廣泛地出現在虛拟财産規制領域,有鑒于此,“虛拟财産的刑法保護”成為未來刑法學着力點中的重要議題,對其罪名要件的正确解釋與相關新罪名設定之理論邏輯順理也是網絡時代新刑法格局的重要建構環節,此亦可謂是對設定高效可行之規範備援機制以期對沖不法行為的追求。具體而言,這一類備援機制設定包括兩個方面:

其一,在前置的秩序限制架構建構方面,應對部分惡意行為的規制态度從行為默許邁向行為禁止。出于既有秩序規範的空白與行為在發展階段的實質嚴重性,有必要對此類原先法律未有規定而“默許”的行為予以禁止性規制,例如目前現實中,對兒童“欺淩”機器人但達不到财産損害的程度時,往往僅能予以道德譴責,但實際上這種“欺淩”可能給把陪伴型人形機器人當成“夥伴”的使用者造成嚴重的精神創傷。故在陪伴型人形機器人的發展階段,應當對此類行為的合法性予以再考量。展開來說,禁止此類行為的原因主要是防止這類不良行為對使用者、社會公衆造成嚴重的精神影響,雖然法律無法對可能造成精神影響的所有不良行為進行規制,但應當對作出明顯不良行為之人予以“零容忍”,如設定“禁止在人形機器人所有者作出制止并說明原因後,仍然故意作出羞辱、損壞人形機器人行為的行為”“禁止在公衆場合故意作出當衆羞辱、損壞人形機器人的行為”等法律規則。

其二,在嗣後的責任後果架構建構方面,應再審視責任懲戒制度安排使得違法成本超越違法利益。對嚴重違法行為歸責趨嚴,架構特殊的懲戒制度,能夠加強對違法者的違法威懾:(1)設定懲罰性賠償制度。大陸懲罰性賠償遵循法定主義原則,法無規定情形則不應适用。統觀民法典及相關特别法,懲罰性賠償适用情境包括産品缺陷、知識産權侵權和生态環境損害等,并未有适用損害陪伴型人形機器人的相關參照、直接遵循标準。但從制度設計的本質和基本面向來看,懲罰性賠償的核心功能在于對産生嚴重後果之過錯行為的制裁以及對違法者的威懾,這與陪伴型人形機器人侵害行為的待規制方向是一緻的。是以,筆者認為,應将存在主觀過錯、造成嚴重後果(包括精神損害)的侵害陪伴型人形機器人的行為納入懲罰性賠償的規制範疇内。(2)再重申精神損害賠償制度的适用。陪伴型人形機器人對部分使用者而言已成為特别的情感寄托,對其的外來損害将會對此類使用者群體造成嚴重的精神沖擊。為此,民法典第1183條第2款實際上為受精神損害的被侵權人群體提供一個救濟管道。雖然,這一款項的适用對象之範圍還有待司法實踐進一步确認,但筆者認為,陪伴型人形機器人在倫理物格意義中的特殊形象理應納入“具有人身意義物”的範疇,當侵權事項滿足侵權人主觀故意/重大過失、造成被侵權人超越社會一般人遭受的精神痛苦等其他構成要件時,被侵權人即可提起精神損害賠償之訴。(3)調适多樣性質罰的适用交叉。陪伴型人形機器人之“物”的特性,使得對其造成特定的嚴重損害後果及影響時理應訴諸刑法規制,但其非法律主體的法律考量使得定罪範圍不應在“侵犯公民人身權利、民主權利罪”的範疇,而應當聚焦于确認“侵犯财産罪”項下的具體罪名。此外,當出現共具侵害民事權利與違反刑事秩序的案件時,多樣性質罰的選擇、調适與吸收則成為此類刑事附帶民事訴訟中的考量重點,但适用好這一規制手段也将發揮其嚴懲侵權行為、為被侵權人提供最大化保障、教化社會與營造新技術法治氛圍之三重價值。再者,由于此類懲戒制度的相對嚴苛性,對證成違法事項的舉證标準和啟動承責的條件标準也應相對提高。

誠然,相對高要求的法律秩序設定能給予陪伴型人形機器人的使用環境以更強的限制力保障,但需要特别注意的是,無論在何時嚴格規則都應當“謙抑地”設定與使用,這就表明,對沖趨于折扣守法行為的備援機制僅是“最後防線”的特别嘗試,也即蘊含這類備援邏輯的規範規則僅占陪伴型人形機器人規範治理體系的較小部分。在發展階段,“以一般财産法規制為主,特殊規則僅在特别情形下适用”,是規範體系的構架譜系外觀。

四、餘論:人形機器人的“格”之上限不突破“物”之本質

之于陪伴型人形機器人的技術邏輯及大陸法律的現實架構安排,權利客體是其在既有階段和可預見的發展階段中的法律體系内的最好定位闡釋。在這一定位之中,物格理論統攝着陪伴型人形機器人的制造、發展與演化,也即意味着陪伴型人形機器人在現有法律次元中的“格”,始終不逃離“物”的範疇。

但是,推演出這一結論的技術次元始發點,是出于這一類人形機器人乃至所有人工智能産品在可預見時期内均是以算法推演為運作機理,也即不具有獨立意識。于是不免産生一種觀點,是否随着未來技術疊代更新,能夠出現一類超越算法推演的人形機器人類型,進而再次向立法者提起關于重新審視人形機器人法律定位的立法動議?實際上這種觀點在既有技術背景下是很難有可行解的。正如根據2015年“人工智能的未來:機遇與挑戰”(The Future of AI:Opportunities and Challenges)這一國際性會議專家意見所形成的研究文章指出,未來人工智能應當“有益于人類社會”(Beneficial to Society)且“可控其實施行為”(AI systems must do what we want them to do)。這種設計思維的生動叙事展現在“阿西莫夫三定律”及“第零定律”的闡述之中,但這種模糊且混沌的“最大化标準”實際上是不可計算、不可能在固定演繹中實作的,典型的例子就是,“有益”這一概念的二值代碼應當在機器邏輯中如何撰寫與編譯?這顯然并無固定答案,有待于人類在每一場景下具體作出思考并為機器人作初始設定。是以,人類這種一眼看出相關性并作出選擇的能力是機器符号不可再現的,人形機器人不可能完全地自我選擇行為以實作“人類中心”,更何況若即便可能,這種“獨立意識”推演作出的自我選擇也不超脫基礎立場(“人類中心”),也即這種“獨立意識”是“不存粹”的(非真正的獨立意識)。雖然,在這種“獨立意識”統攝下人形機器人認定“不能”突破“基礎邏輯”,似乎與人類在獨立意識下認定不能違反“法”相似,但實際上前者之“不能”是事實判斷的不能,後者則是價值判斷下的不能,人類可以作出價值判斷與事實判斷但機器人僅可作出事實判斷,也即這種“獨立意識”與人類獨立意識所含的功能是有本質差異的。

進一步地,從法律向度來看,即使認為将來的技術存在着塑成具有獨立意識人形機器人的現實可能,法律亦不會助推這種可能成為現實。正如有學者指出,如果真的出現有獨立意識的人工智能,又如何保證他們會甘于受限于“人類中心”這一立場規則?是以,無論技術如何先進,倫理視角的考量已劃定人工智能法律地位設定的絕對禁區,也即其絕不能成為法律主體。這一觀點是有相似實踐佐證的,例如大陸同樣基于倫理與人的尊嚴性考量,在立法中堅決反對克隆人研究,世界各國也一緻地展現出禁止性立場,即便部分學者重申克隆人的存在意義并從生育方式、生育結果與法保護範圍的耦合性展開說理。回歸人形機器人的讨論,或許出于“未知風險”淹沒“預期利益”的考量,具有真正獨立意識的人形機器人不應被研發出來。相對應地,那些為因應真正獨立意識人形機器人産生時的規制問題,而主張現應前置讨論“法律主體說”視角下應如何規制之“未雨綢缪”的學說觀點,顯得脫離現實。進而,對人形機器人法律規制的研究還應基于其為權利客體的基本觀點上展開,其“格”的上限不應當超越“物”的本質,也即人形機器人在法律範疇内僅可“非人”。

任賴锬 王晨骅|陪伴型人形機器人的升格演化、形象區分與法律規制

繼續閱讀