陪伴型人形机器人作为智能技术迭代驱动与社会情感需求催生下的产物,因其独特的人形外观、交互模式及关怀功能而被适用于康养、教育、社交等诸多领域。然而,尽管其用户市场已初步成型,但规制市场秩序的底层规范体系仍待架构,其中“法律地位为何”的核心问题也未被法律予以明确回应。对此,不妨基于技术运行逻辑与归责可行性考量,可发现这类智能体并不具有自我意识与独立承责能力,其应作为“权利客体”而非“法律主体”,也即其本质不超越“物”的范畴。进一步地,需要聚焦物格理论下的具象法律规制逻辑:一方面,在既有阶段,陪伴型人形机器人呈现“工具”与“非人类”的“一般物”形象,公众认可度与知悉度较低,行为趋于谨慎加码,故应主要适用一般财产法规制模式,以倡导性规则与一般约束性规则为主的冗余设置对冲加码。另一方面,在发展阶段,人机关系从一般交互深入为社交交互,此类机器人呈现“倾诉者”与“类人类”的“伦理物”形象,但由于公众事实观念与法律观念的异步性,行为趋于折扣,故应予特殊立法,尝试设置严格限制性规则以对冲折扣。由此,出于对不同阶段机器人的形象区分、升格演化考虑,应适用不同法律规制模式,以期建架动态秩序体系,真正保障陪伴型人形机器人的价值实现与行业发展。
引言
“人形机器人”的近代意义概念与有形实体轮廓滥觞于20世纪60年代的日本,从彼时至今,之于人类自我追问的念力、替代性质救助的良愿、技术自展力量的推进等原因,诸多研究者前赴后继地以实践因应着“此类机器人何需‘类人’?需何‘类人’?”之诘问。2023年10月,工业和信息化部印发的《人形机器人创新发展指导意见》从宏观政策层面重申推进人形机器人这一技术性议题的重要性,并且指出两个关键性时间节点与目标图景,人形机器人行业有望于在专项性政策扶持下得以进一
步发展。同时,在留守儿童、空巢老人等社会问题趋于严重,以及家庭情感、社交情感等的再重申与深度需要的社会现实背景下,一类以“情感陪随-现实陪同”为产品目的、以“信息交互—自我修正”为技术核心的陪伴型人形机器人应运而生,例如以“人类情感解码、拥抱与回应”(Human emotions decod-ed,embraced,echoed)为设计初心,运用于教育、护理等诸多场景之中的人形机器人Pepper。但从其整体发展及规制角度来看,陪伴型人形机器人尚待规模化、商业化,且有关乎此技术的明确且成体系的治理规则尚付阙如,也即陪伴型人形机器人在既有阶段是新兴并亟待规制的产品概念。为填弥技术蝶变“在先性”与制度设计“滞后性”之间的缺隙,陪伴型人形机器人这一技术概念在法律秩序中的基本定位与基础问题应当是最先予以确认与因应的一环。
一、问题的提出:“陪伴型人形机器人”是权利客体抑或法律主体?
(一)底层理论:“权利客体说”与“法律主体说”的抉择与争鸣
现行法律体系中缺乏对于陪伴型人形机器人法律地位的确认,造成实际应用中法律价值指引的缺位。在亟待确认其法律地位的现实动议下,不同学者对此有着不同看法,其中最为核心的争点在于这一类机器人应不应当具有法律人格。在民法领域,法律人格通常被理解为“司法上的权利和义务所归属的主体”,包括自然人主体和法律拟制主体两种存在形式,有鉴于此,人工智能在本质属性上的法律概念厘定问题,学术界形成“权利客体说”与“法律主体说”的分歧,目前有限的研究中,支持与反对意见针锋相对,或可作为陪伴型人形机器人法律地位探讨的底层法理基础。
“权利客体说”认为无论从法学层面或是哲学层面探讨,陪伴型人形机器人并不具备人类理性,本身无法从工具本质的范畴中剥离开来,为其创设法律拟制主体资格也难解人工智能的规制困境,故将其作为拟制之人以享有法律主体资格在法律上尚有斟榷之处。大陆学者对此已经做出诸多颇有见地的研究,支持人工智能权利客体资格不变的学者观点以杨立新教授提出的“物格属性说”、李爱君教授“法律行为说”和刘练军教授“独立性否定说”为代表,学者从“自我意识论”的罅隙和结果主义的视角给人工智能权利客体的法律地位“正名”。
亦有学者对“权利客体说”持相左意见。“法律主体说”支持摒弃生物学上“人”的定义限制而位格加等地承认陪伴型人形机器人法律主体的地位。该学说大概包含“实用主义说”“权利主体说”和“技术原理说”三方面观点。赞成者论证之要素在于:(1)现阶段人工智能已具备主体性与人格性。(2)法律主体的范围不断扩大,人工智能拥有法律主体资格并无技术障碍。(3)可有效调整人工智能时代机器人行为的责任分配与刑法规制。此外,亦有域外法律观点与实践从多维度界定人工智能机器人的“人格”法律属性,如哲学家拉梅特里、艾博特教授和戴维斯教授认为,人工智能应当拥有法律人格。立法机构也走向前台:欧盟法律事务委员会就“拟制电子人”提交欧盟机器人民事法律规则立法提案;俄罗斯专家起草立法建议稿格里申法案以期赋予人形机器人民事法律地位;沙特更是存在直接赋予智能机器人以公民身份的实例。
总而言之,存在于现实场景之中的两种学说立场在一定程度上均有其正当性与合理性。进一步而言,大陆法律规范体系需廓清人形机器人的真正法律地位,以消解人工智能时代引发的诸多法理困惑。而就比较向度予以审视,笔者认为,基于陪伴型人形机器人的技术逻辑性与对其的规制契合度考虑,“权利客体说”是目前大陆应当采取的治理逻辑。
(二)驳斥一:自我意识论与算法牵引的差异
现代法关于“主体”的概念界定建立在古典哲学对人的本质的深刻理解上,法哲学基础深厚。近代西方哲学家笛卡尔提出“我思故我在”命题,将“我思”(自我意识)置于认知起点的位置,证成“自我意识”是主体性的前提。此外,在西方哲学传统中,“自我”与“主体”可以等同使用,“自我意识论”构成“法律主体论”的核心。也即,赞成“法律主体说”理论的一大核心观点在于认为陪伴型人形机器人具有自我意识。但实质上,陪伴型人形机器人只是代码逻辑与自我指涉的产物,此技术逻辑决定其并不具备自我意识。
具体展开而言,其一,陪伴型人形机器人受代码逻辑支配,尚不具备“原初思想”维度的自我意识。自我意识是一种“以自我为思考对象的行为”,按照斯坦福哲学百科全书对“自我意识”的解释,自我意识的含义被概括为三类:体验说(从“内部”意识到自身的存在)、认同说(主体获得对他人的肯定)和反思能力说(有意识地思考自己的能力),将自身的生存作为第一要务是主体性的必要构成部分。然而,以陪伴型人形机器人为例的所有人工智能产品,究其本质,是对人的思维逻辑的模仿,不具有人的主观能动性。陪伴型人形机器人的底层逻辑是数据的统计分析,深度应用的主要依据是算法牵引(机器人“大脑”的控制模块装备着人类编制完备的程序,在识别或感知到新信息时依据算法获知响应能力)。遵循这一逻辑,陪伴型人形机器人做出的看似是“自我决策”下的自主行为,其实设计者的算法架构才是背后的“提线者”。如何与用户交互、交互程度、在何种状态下交互等问题都是设计者在确定初始代码时写入算法赋予陪伴型人形机器人的,人机交互使得陪伴型人形机器人获得类似人类的法律主体地位,但被动的获得方式实则将机器人的“自我意识”悬搁。此外,“计算机之父”图灵提出的“图灵测试”是机器智能领域最著名的主体性测试,在此场景中,人类裁判会在无物理接触的情况下与一台电脑和一个人分别进行简短的对话,结束后辨识对方是人类还是机器,迄今为止未有任何陪伴型人形机器人能通过严格的图灵测试。图灵测试的巧妙之处在于“自我意识”“思维”“智能”等概念难以通过定义阐释,故使用相当结果导向的辨别方式(将具有自我意识的人类作为参照)以消弭概念思辨的壁垒,可直观用于机器人自我意识的验证。除此之外,“镜像自我识别实验”作为学界公认的验证自我意识存在的可靠方法,在近期智能机器人研究中为自我意识识别路径提供参考。然而实验中,经研究团队构建“身体自我模型”,随后训练机器人进行“多感觉融合”,以学习自己身体部位,最终机器人才成功识别。这一例证恰好可作为“陪伴型人形机器人尚不具备自我意识,只是代码逻辑和算法牵引的产物”的合理注脚。
其二,陪伴型人形机器人是自我指涉效应牵引下产物,尚不具备“自我反思”维度的自我意识。陪伴型人形机器人依赖初始码及算法逻辑进行决策,产生自我指涉(Self-referential)效应。“自我指涉”效应意为将人或物变为数据之后,作出决定和分析的依据只有这一数据,在运行程序中具有自足性与封闭性。对于陪伴型人形机器人而言,一旦初设数据发生错误或本身就存在偏见,如不符合其作为“情感寄托”的角色特点或有违人类的道德理性,数据和算法闭环使得这一错误很难被系统本身纠正,也难以从外部进行有效的纠偏,系统的运行只会不断循环其自我逻辑,自我产生新的代码和模型来不断强化错误,此即自指效应上的“自我强化”特性。人工智能时代人类的诸多行为会留下海量的电子痕迹,信息技术使其成为可供整合、处理和分析的数据库,进而形成具有自动化决策功能的区分来源。数据摇身一变成提供各种服务的“大数据服务”的掌控者,人类无法拥有或控制这些数据,成为“被强加给个人的量化身份”。遵循这一逻辑,陪伴型机器人的运转沿着自我指涉效应指引的路径,功能路径的实现则是算法牵引的结果,推敲“自我意识论”的“反思能力说”后不难发现,自我意识是主体独具的反思能力,陪伴型人形机器人的自我指涉与自我强化效应足以说明其本身并非具有自我意识的主体,一定程度上被归纳为“类自我意识”,即类似人类心理与情感机制的意识,作为证成法律主体地位的核心要件,自我意识的疏缺决定陪伴型人形机器人“权利客体论”的合理性。
(三)驳斥二:拟制主体论与责任虚置的矛盾
以上论证从自然本性的角度排除陪伴型人形机器人作为法律主体的可能性,然而,人工智能时代随着陪伴型人形机器人的拟人化,逐渐承担与人建立亲密关系的情感逻辑,有学者建议确立新的法律主体类型如“电子人”以表征陪伴型人形机器人的法律地位,但笔者认为这一“拟制主体论”的观点实无必要,故依旧持反对意见。申言之,拟制主体论将导致陪伴型人形机器人责任虚置,作为以与人类进行交互交流为最终目的的“人造陪伴物”(Ersatz Companion),陪伴型机器人被拟制为法律主体将会带来责任归责的困局。
现阶段,陪伴型机器人的社会交互性和拟人情绪性已经达到较高的程度,服务领域集中分布在老龄陪伴、老年人护理、儿童陪伴与独居女性陪伴领域。试问,陪伴型机器人如果泄露使用者隐私,利用用户数据胁迫接受其服务的用户,抑或在陪伴过程中侵犯使用者人身自由,责任由谁来承担?法律对民事主体地位的承认是承担责任的功利标准,探讨陪伴型人形机器人的法律责任,毋庸置疑应当立足于人工智能产品的法律地位。对此,龙文懋教授曾有过精辟的陈说,其认为从自然理性的层面考量,适格的法律主体必然是理性、情感、欲望的结合体,陪伴型人形机器人不具备意思表示,无法成为利益的负担者。从拟制主体的层面考量,“拟制主体论”在论证上也难以自洽。笔者赞同以上观点,目前的陪伴型人形机器人的法律责任问题,本质上只是产品责任问题,实践中以过错责任和严格责任为归责标准,通常由机器人的设计者、制造者和使用者来担责。但是在陪伴型人形机器人是法律主体的立法预设下,人工智能致害责任承担问题并未得到立法的建构。此外,基于独立地位引致独立责任的法律逻辑,与陪伴型机器人有关的法律责任问题,如致人损害之民事责任问题,利用人工智能犯罪之刑事责任问题,无论是欧盟抑或俄罗斯并未赋予相应的解决措施,但均排除陪伴型机器人本身的责任承担,可见陪伴型人形机器人的法律主体地位实际上形同虚设。综如所述,陪伴型机器人的拟制主体论并无实益。
(四)小结:应作为权利客体的陪伴型人形机器人与其物格展开
自以上驳斥结论出发,可见,陪伴型机器人的法律地位应为权利客体而非法律主体。就此而言,陪伴型人形机器人之本质是民法上的“物”。杨立新教授曾在其著作中提出对不同类型“物”予以分类规制的“物格理论”,阐述在于,民法上的物被区分为三种物格,分别是“一般物格”“特殊物格”与“伦理物格”。物格制度的开创能够实现法律对实践中多样化的物的规制需求。在当前阶段,笔者认为,包含陪伴型人形机器人在内的人工智能产品,尚未达到需被纳入“特殊物”或“伦理物”范畴进行保护的程度,仍属于“一般物”的种类。但在技术迭代的未来,具有高度“类人性”的陪伴型人形机器人,或可能被归入物格的其他等级予以特别保护,也符合人工智能法律规制的特殊需求。
二、既有阶段:仅作为一般物的人形机器人及其财产法规制逻辑
(一)时空初阶:工具形象与“非人类”观念
德国哲学家康德(Kant)最早提出“图式理论”(Schema Theory),认为人类在认知过程中会通过环境的互动和经验积累形成各种图式,并在认知过程中不断调整和更新这些图式。图式(schema)的本质为信息网络,是存在于记忆中的认知结构或认识结构;是在处理外部信息时,记忆从存储中调取脑海中已有的同类信息作为处理框架的模板,例如人在看到红灯亮起时就停下车,因为大脑自动将其归类为“交通规则”。既有阶段,陪伴型人形机器人作为一般物在人类社会中同样具有代表其价值的图式。
其一,在时间维度,现阶段陪伴型人形机器人扮演的角色属于一般意义的“工具形象”范畴。即便陪伴型人形机器人在人机交互中表现出情感行为,但目前还无法完全模拟人类情感。以功能型为导向,一般人机交互(如基础对话和初级学习后的再交互)为陪伴型人形机器人运行的底层逻辑和主要功能。其主要作用是满足不同用户的陪伴需求,但并不具有自由意志,只能在人类设计和编制的程序范围内实施行为,其功能的发挥完全取决于人类的适用目的。初期的使用者在人工智能新技术的驱动下,也仅以“尝试”的态度摸索新事物带来的乐趣。考虑到技术的局限性以及人工智能可能带来的伦理安全风险,使用者更多专注于陪伴型人形机器人的工具性服务功能,避免与机器人卷入深度社会情感关系。
其二,在空间维度,初阶段的陪伴型人形机器人之外形及情感逻辑尚未达到真正生命体的状态,且在社会之中因其未达到商业化而呈现出现频率低、普及范围小的使用态势,故不足以“以假乱真”或“由此及彼”。具体而言,目前被授予沙特公民身份的智能机器人“索菲亚”(Sophia)代表当前人形机器人的最高水平,能够出席会议和接受访谈,但并非所有陪伴型人形机器人都能达到这种极度类人机器人的水平,况且即便是面对如此高类人性的人形机器人,目前国际社会公众仍未普遍产生
认同甚至出现“恐怖谷效应”(Uncanny Valley)。在此背景下,根据图式理论的扩散激活机制(Spreading Activation),社会公众在多数情况下在以“陪伴型人形机器”为中心的语义网络中,无法激活其与“人”的关系联想,少部分曾接触过的人也大概率仅能激活“工具”概念或“人工智能”概念。立足当下,借用物格理论的框架,观念中普遍认为是“非人类”的陪伴型人形机器人作为“一般物”以规制有其合理性。
(二)一般财产法规制模式:以冗余对冲要求加码守法行为的主要范式
冗余的理论最早来源于工程学中自动控制系统的可靠性理论,意指系统的组成结构采用并联方式连接组合,部分元件的失效不会引致体系特定功能的丧失。在此,冗余一词更多使用的语义,乃重复配置的部件。随后卢曼在观察法律论证时最先将冗余概念引入信息系统,认为冗余是法律论证可能性的条件。冗余机制为“维稳”而生,在基础运行单元之上增加新的冗余控制单元,以化解超出常态的突变,避免因系统的过度冗杂或无法运行的风险而宕机。正如哈贝马斯对卢曼的冗余机制论辩归纳为:“降低判决的(其形成动力在别处)惊异值,提高人们对判决事实上的接受度。”规范的冗余机制设置并非“层层加码”,在风险社会背景下,其为防范风险提供一定的安全空间和缓冲地带,此即对于桑本谦教授提出的“增设缓冲区、加固防火墙”“保留冗余是为了应对罕见的意外”等合理解读观点。
法律上的冗余主要体现为两种情形,包括“对冲守法行为趋于加码的冗余”和“对守法行为趋于折扣的冗余”。二者的区分标准在于潜在当事人是否会系统性地偏离预防事故的“最优均衡点”。如何分配事故风险成本将其圈限在一个“最优均衡点”上,就前者而言,当守法行为趋向于加码时,法律规定就会相对宽松,以冗余对冲加码。遵循这一逻辑,陪伴型人形机器人使用者、生产销售者与其他相关社会公众面临这一新兴技术往往不能全面知晓其风险所在和规制所限,故而其行为(包括使用、生产行为等)将会趋于谨慎,为促进实用化普及,冗余规范应当具有宽容或激励功能,也即此类冗余机制设置规范更多呈现在一般约束性规则与倡导性规则中。具体展开而言,在“奇点”来临之前(“奇点”指人工智能达到人类智能水平的技术程度),撷取一般约束性规则对陪伴型人形机器人的法律责任进行规制具有“引导性”价值。再者,作为提倡当事人采用特定行为模式的倡导性规则,同一般约束性规则一般,对消解普及阻力至关重要。无论在何种规则中,这一类智能体始终是“物”,应适用一般财产法逻辑规制。
这种一般财产法的规制逻辑下,陪伴型人形机器人既有可能作为被侵害物,也有可能作为侵害工具。就前者而言,鉴于其“一般物”的法律地位,陪伴型人形机器人缺乏完全的权利主体资格。现如今虽不少学者均质疑机器人权利存在的合理性,但毋庸置疑的是“天赋人权”无法适用于机器人,陪伴型人形机器人尚不能与自然人享有同样的权利保护待遇。鉴于传统分类将权利划分为人身权、财产权和政治权利等类型,被界定为“一般物”的陪伴型人形机器人不应享有诸如前述的法律权利,当前阶段仅作为用户或使用者的“财产”(物)身份存在。例如家中的陪伴型人形机器人被邻居碰倒在地,机器人的使用者无权向对方主张人身损害赔偿,仅能将陪伴型人形机器人置于“财产”的范畴进而主张经济补偿。
就后者而言,陪伴型人形机器人作为侵害工具应适用产品责任制度。举一个典型例子,隐私作为人机交互领域的一个重要话题,陪伴型人形机器人的作用路径将给用户的隐私保护再增复杂性,面向陪伴型人形机器人,用户一方面热衷于分享个人隐私信息,另一方面又敏锐审视隐私安全存在的风险。由此观之,以家庭陪伴机器人为代表的各类陪伴型人形机器人,在突破人机互动限界的同时,随之而来的将极大可能产生数据隐私泄露的风险。如前所述,在法律上被认定为“产品”的陪伴型人形机器人,侵权责任承担原则不得过度偏离原有类型,即过错责任、过错推定责任和无过错原则(最严苛的责任)。例如,陪伴型人形机器人的社交特性引致高敏感个人信息的无意识披露,机器人的频繁监控与电子储存功能更是将隐私保护问题推至风口浪尖。它们一方面侵入用户的私密空间记录、搜集并处理隐私信息,另一方面借助其自主决策和自主行动的能力对用户权益造成损害。针对此现状笔者大抵设想以下三种分类情形:(1)陪伴型人形机器人自身存在缺陷而造成隐私泄露的损害后果。就该情况而言,对于机器人的生产者、设计者或销售者实行无过错责任原则,由其承担侵权损害赔偿责任。基于对陪伴型人形机器人高度自决性的考量,其不可解释性、不可预测性的铺展可能会导致机器人违背设计者所“赋予”的程序,以意想不到的方式行为。笔者认为,因循现代责任体系的归责机制,陪伴型人形机器人超出预期的行为,以产品缺陷为由让生产者承担损害赔偿责任难以得到证成,有待进一步探讨。在无过错责任原则的威慑下、陪伴型人形机器人非“自我意识论”者的营构下,生产者、设计者和销售者的产品标准将臻于至善,避免在设计制造与销售中存在缺陷,消弭于技术发展同步增加的数据隐私潜在性风险。(2)第三人通过非法侵入的方式控制智能系统进而摄取用户的隐私信息。就技术而言,陪伴型人形机器人可能成为恶意第三人偷取用户隐私的“工具人”,包含但不限于黑客、系统运营商、第三方软件等身份者。杨立新教授将此种责任命名为“先付责任”,可解读为“不真正连带责任的变形”,由设计者、生产者和销售者作为“中间责任人”首先承担赔偿责任,随之有权向第三人进行追偿,此“中间责任”的构建目的在于打破被侵权人索赔无门的僵局。(3)因用户的不当使用而导致损害后果的发生。考虑到陪伴型人形机器人的功能特性,隐私泄露的被侵权者通常为用户本身,如将该范围外延拓展至用户的亲属、好友,在归责原则方面则应当适用过错责任原则,由存在过错的使用者承担侵权损害责任。
需要注意的是,将一般财产法作为主要规制范式不等同于其为“唯一”范式,鉴于陪伴型人形机器人在应用场景上逐渐拓宽,多元复杂的安全风险与归责难题日渐显现,除一般财产法规制模式外,刑法等严格限制性条款实有设置之必要。基于对陪伴型人形机器人可能情景之预见,与之而来的包括机器人被滥用为犯罪工具的刑事风险,如机器人生产者、设计者或销售者故意利用此类机器人非法搜集用户信息实施诈骗,第三人恶意破坏程序致使陪伴型人形机器人伤人等情形下,引入刑罚具有适宜性。至此,以一般财产法规制模式为主要范式、严格限制性规制模式为补充范式的规制体系,将依循此类机器人的时代嬗变而初步建成。
三、发展阶段:演变为伦理物的人形机器人与特殊立法规制模式
(一)时空推移:情感寄托与“类人类”置身
图式既然是一种与记忆中给定概念相关,且连接丰富的信息网络,那么随着人类与特定事物交互所形成的印象记忆的叠加,它的图式形象与关系网络也将发生变化。时空推移下,这种变化也必然地存在于社会公众与陪伴型人形机器人的交互过程之中。
其一,在时间维度,陪伴型人形机器人在与使用者的不断交互之下,将从“工具形象”转向“情感倾诉者形象”。陪伴型人形机器人作为陪伴型机器人的特殊一类,也具有使用户感受到情绪即时回应、无威胁感倾诉与共情性的“魅力”。这种设计导向促使用户从初步接触时的“使用心理”转向为更为稳固的“依附心理”,从而超越“人机关系”的一般交互逻辑而迈向“类人际关系”的“交际”维度,也即产生社交反应,空巢老人在人形机器人的亲密陪伴下,好似向家人倾诉日常、排解孤独一般,从而可能将其视为自己的子女而非财产。此时,陪伴型人形机器人成为用户的情感寄托,这种依靠映射出人与机器人之间已形成的犹如“同伴”般的新型亲密关系,即便用户知道机器人是无生命的,但仍会将其当作社会主体看待。
其二,在空间维度,陪伴型人形机器人在社会普及率不断提升的趋势之下,其作为“人”形象的“高现身率”将获得社会公众的群体认同,从而形成“类人类”形象共识。具体而言,陪伴型人形机器人的典型表征就是“具备类人的外观”,当这一类“以假乱真”的面孔在渐趋多元、逐渐广泛的应用中呈常态化,“好奇心理”将逐渐消失,取而代之的是平常化的合理性认可。可见,置身于陪伴型人形机器人身畔与加入人类社群无异,更何况其人类般的外表强化群体认同的确信,自此“非人类”观念被“类人类”观念所替代,甚至产生陪伴型人形机器人本身即为人类一员的身份认同。
(二)特殊立法规制之模式:以冗余对冲趋于折扣守法行为的特别尝试
在陪伴型人形机器人的发展阶段,人形机器人致害与被损害同样是法律规制的两方面重点,前者实际上与前述的既有阶段规制逻辑是相近的:通过在先区分自身缺陷、第三人恶意使用与用户不当使用三种情形,并根据不同情形根据民法之相关规制展开,以及就其中严重情形诉诸刑法。在其间可能有差异的,是侵权人可能利用陪伴型人形机器人特别造型/特别功能展开侵权,但这也仅是侵权方式的不同,法律规制的逻辑是不变的。但对于后者而言,由于陪伴型人形机器人的特殊意义,对其造成损害可能不单单仅造成财产损失这一后果,还极大可能造成精神性损害、社会性影响等更为严重的伤害类型。有鉴于此,有必要就陪伴型人形机器人被损害之法律规制设置予以择出讨论。
届时,生活在陪伴型人形机器人盛行的时代,这一类智能物对公众的思维影响不单单体现在对其的形象反思这一直接性方面,更间接地、本质性地影响着社会公众的道德决策甚至是法律决策,但由于道德标准的模糊性和本身的不稳定性,技术更多地影响着前者,进而公众在道德思想的指引下作出道德实践,体现意识决定行为的转化过程。以此为例,这种技术对道德决策与行为的影响典型地表现为两种类型场景,第一是环境影响下积极性转嫁行为的作出,如儿童看见人类玩伴在欺凌人形机器人时,会误认为这一行为(被误解为欺负“人”的行为)是合理的,从而形成错误的道德价值观转而去欺负其他玩伴(不论是否是人类玩伴);第二是环境影响下消极性趋避行为的作出,如发现其他人类朋友向自己认可为“伙伴”的陪伴型人形机器人作出“逗趣性”行为时,将会从心理上感到不适,进而自人类道德评价角度认定其为无道德之人,从而选择趋避性地疏远。相对应地,在陪伴型人形机器人影响公众法律决策与法律行为角度,也是相似的推演逻辑。此时,陪伴型人形机器人以“他者”身份出现并影响着公众的生活,形成独特的伦理意义,从而自“一般物”升格演化为“伦理物”。诸多学者赞同这一种性质定位,认为将这种人类最密切的“朋友”纳入物格的“最高等级”进行规制符合伦理道德观。
陪伴型人形机器人升格为伦理物自然需要对其进行特殊立法,这是因为公众在这一领域的事实观念和法律观念并非同频变化,具体而言,公众与陪伴型人形机器人的交互关系是已愈发亲密,但由于先前的以一般财产法为其主要规制模式的秩序系统,使得社会中形成公众以一般法思想对待实际转变的特殊物的现实格局,守法行为就会趋于折扣。与前文所述相对,此时便应设置严格限制性规则,以冗余对冲趋于折扣的守法行为。一个与之相近的典型例子与良好佐证就是公众对“虚拟财产”也同样存在着事实观念与法律观念的差异:互联网使用初期,人们无法将仅适用于网络空间的虚拟财产与真实世界相联系,甚至在盗号行为猖獗的时期往往在遇见类似场景时只能自认倒霉,这种事实观念实际在法律加速普及的今天仍然有之。但是,大陆司法机关在2015年时,就已适用刑法判决17起非法获取网络虚拟财产案件,然而相当一部分公众并不知悉侵害虚拟财产能达到刑事严重性的程度。从而,犯罪分子往往都是抱着“低风险—高收益”的当然想法展开非法行为,直至被逮捕时才发现“法的实然现实”与其脑海中“法的应然状态”之间的巨大差距。正是因为如此,趋于折扣的守法行为也广泛地出现在虚拟财产规制领域,有鉴于此,“虚拟财产的刑法保护”成为未来刑法学着力点中的重要议题,对其罪名要件的正确解释与相关新罪名设置之理论逻辑顺理也是网络时代新刑法格局的重要建构环节,此亦可谓是对设置高效可行之规范冗余机制以期对冲不法行为的追求。具体而言,这一类冗余机制设置包括两个方面:
其一,在前置的秩序限制框架构建方面,应对部分恶意行为的规制态度从行为默许迈向行为禁止。出于既有秩序规范的空白与行为在发展阶段的实质严重性,有必要对此类原先法律未有规定而“默许”的行为予以禁止性规制,例如目前现实中,对儿童“欺凌”机器人但达不到财产损害的程度时,往往仅能予以道德谴责,但实际上这种“欺凌”可能给把陪伴型人形机器人当成“伙伴”的用户造成严重的精神创伤。故在陪伴型人形机器人的发展阶段,应当对此类行为的合法性予以再考量。展开来说,禁止此类行为的原因主要是防止这类不良行为对用户、社会公众造成严重的精神影响,虽然法律无法对可能造成精神影响的所有不良行为进行规制,但应当对作出明显不良行为之人予以“零容忍”,如设置“禁止在人形机器人所有者作出制止并说明原因后,仍然故意作出羞辱、损坏人形机器人行为的行为”“禁止在公众场合故意作出当众羞辱、损坏人形机器人的行为”等法律规则。
其二,在嗣后的责任后果框架构建方面,应再审视责任惩戒制度安排使得违法成本超越违法利益。对严重违法行为归责趋严,架构特殊的惩戒制度,能够加强对违法者的违法威慑:(1)设置惩罚性赔偿制度。大陆惩罚性赔偿遵循法定主义原则,法无规定情形则不应适用。统观民法典及相关特别法,惩罚性赔偿适用情境包括产品缺陷、知识产权侵权和生态环境损害等,并未有适用损害陪伴型人形机器人的相关参照、直接遵循标准。但从制度设计的本质和基本面向来看,惩罚性赔偿的核心功能在于对产生严重后果之过错行为的制裁以及对违法者的威慑,这与陪伴型人形机器人侵害行为的待规制方向是一致的。因此,笔者认为,应将存在主观过错、造成严重后果(包括精神损害)的侵害陪伴型人形机器人的行为纳入惩罚性赔偿的规制范畴内。(2)再重申精神损害赔偿制度的适用。陪伴型人形机器人对部分用户而言已成为特别的情感寄托,对其的外来损害将会对此类用户群体造成严重的精神冲击。为此,民法典第1183条第2款实际上为受精神损害的被侵权人群体提供一个救济渠道。虽然,这一款项的适用对象之范围还有待司法实践进一步确认,但笔者认为,陪伴型人形机器人在伦理物格意义中的特殊形象理应纳入“具有人身意义物”的范畴,当侵权事项满足侵权人主观故意/重大过失、造成被侵权人超越社会一般人遭受的精神痛苦等其他构成要件时,被侵权人即可提起精神损害赔偿之诉。(3)调适多样性质罚的适用交叉。陪伴型人形机器人之“物”的特性,使得对其造成特定的严重损害后果及影响时理应诉诸刑法规制,但其非法律主体的法律考量使得定罪范围不应在“侵犯公民人身权利、民主权利罪”的范畴,而应当聚焦于确认“侵犯财产罪”项下的具体罪名。此外,当出现共具侵害民事权利与违反刑事秩序的案件时,多样性质罚的选择、调适与吸收则成为此类刑事附带民事诉讼中的考量重点,但适用好这一规制手段也将发挥其严惩侵权行为、为被侵权人提供最大化保障、教化社会与营造新技术法治氛围之三重价值。再者,由于此类惩戒制度的相对严苛性,对证成违法事项的举证标准和启动承责的条件标准也应相对提高。
诚然,相对高要求的法律秩序设置能给予陪伴型人形机器人的使用环境以更强的约束力保障,但需要特别注意的是,无论在何时严格规则都应当“谦抑地”设置与使用,这就表明,对冲趋于折扣守法行为的冗余机制仅是“最后防线”的特别尝试,也即蕴含这类冗余逻辑的规范规则仅占陪伴型人形机器人规范治理体系的较小部分。在发展阶段,“以一般财产法规制为主,特殊规则仅在特别情形下适用”,是规范体系的构架谱系外观。
四、余论:人形机器人的“格”之上限不突破“物”之本质
之于陪伴型人形机器人的技术逻辑及大陆法律的现实框架安排,权利客体是其在既有阶段和可预见的发展阶段中的法律体系内的最好定位阐释。在这一定位之中,物格理论统摄着陪伴型人形机器人的制造、发展与演化,也即意味着陪伴型人形机器人在现有法律维度中的“格”,始终不逃离“物”的范畴。
但是,推演出这一结论的技术维度始发点,是出于这一类人形机器人乃至所有人工智能产品在可预见时期内均是以算法推演为运行机理,也即不具有独立意识。于是不免产生一种观点,是否随着未来技术迭代更新,能够出现一类超越算法推演的人形机器人类型,从而再次向立法者提起关于重新审视人形机器人法律定位的立法动议?实际上这种观点在既有技术背景下是很难有可行解的。正如根据2015年“人工智能的未来:机遇与挑战”(The Future of AI:Opportunities and Challenges)这一国际性会议专家意见所形成的研究文章指出,未来人工智能应当“有益于人类社会”(Beneficial to Society)且“可控其实施行为”(AI systems must do what we want them to do)。这种设计思维的生动叙事体现在“阿西莫夫三定律”及“第零定律”的阐述之中,但这种模糊且混沌的“最大化标准”实际上是不可计算、不可能在固定演绎中实现的,典型的例子就是,“有益”这一概念的二值代码应当在机器逻辑中如何撰写与编译?这显然并无固定答案,有待于人类在每一场景下具体作出思考并为机器人作初始设置。因此,人类这种一眼看出相关性并作出选择的能力是机器符号不可再现的,人形机器人不可能完全地自我选择行为以实现“人类中心”,更何况若即便可能,这种“独立意识”推演作出的自我选择也不超脱基础立场(“人类中心”),也即这种“独立意识”是“不存粹”的(非真正的独立意识)。虽然,在这种“独立意识”统摄下人形机器人认定“不能”突破“基础逻辑”,似乎与人类在独立意识下认定不能违反“法”相似,但实际上前者之“不能”是事实判断的不能,后者则是价值判断下的不能,人类可以作出价值判断与事实判断但机器人仅可作出事实判断,也即这种“独立意识”与人类独立意识所含的功能是有本质差异的。
进一步地,从法律向度来看,即使认为将来的技术存在着塑成具有独立意识人形机器人的现实可能,法律亦不会助推这种可能成为现实。正如有学者指出,如果真的出现有独立意识的人工智能,又如何保证他们会甘于受限于“人类中心”这一立场规则?因此,无论技术如何先进,伦理视角的考量已划定人工智能法律地位设置的绝对禁区,也即其绝不能成为法律主体。这一观点是有相似实践佐证的,例如大陆同样基于伦理与人的尊严性考量,在立法中坚决反对克隆人研究,世界各国也一致地展现出禁止性立场,即便部分学者重申克隆人的存在意义并从生育方式、生育结果与法保护范围的耦合性展开说理。回归人形机器人的讨论,或许出于“未知风险”淹没“预期利益”的考量,具有真正独立意识的人形机器人不应被研发出来。相对应地,那些为因应真正独立意识人形机器人产生时的规制问题,而主张现应前置讨论“法律主体说”视角下应如何规制之“未雨绸缪”的学说观点,显得脱离现实。从而,对人形机器人法律规制的研究还应基于其为权利客体的基本观点上展开,其“格”的上限不应当超越“物”的本质,也即人形机器人在法律范畴内仅可“非人”。