天天看点

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对
杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对
杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

ChatGPT等生成式人工智能工具是一种人工智能驱动的经过学习训练可生成对话的语言模型工具。其两种创作模式(人工智能独立写作模式及人工智能辅助写作模式)诱发了对学术抄袭和造假问题的讨论。这些学术不诚信现象也造成了对学术抄袭制度目的的破坏,阻碍了科学突破和制度进步。生成式人工智能对学术诚信造成挑战背后的原因包括人工智能的主体地位不明、使用者的学术诚信意识淡薄与追责制度宽松、研发管理者的机器人伦理设定不足与追责机制欠缺以及学术不端行为检测技术落后这四方面原因。为保障科学研究进步,应当尽早明确生成式人工智能及其生成物的法律定位,加强学术诚信观念和责任追究,明确研发管理者责任并逐步提升学术不端行为的检测技术。

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

引言

ChatGPT是由美国OpenAI公司研发的聊天机器人程序,一经发布迅速在全球吸引了大量用户。与ChatGPT的风靡随之而来的是其帮助学术研究涉嫌学术不诚信行为的争议。为应对学生使用生成式人工智能完成考试,多所大学已明确将ChatGPT等生成式人工智能辅助写作论文作为作弊行为处理。国内外多种学术期刊对ChatGPT之类的生成式人工智能参与论文写作也作出了概括否定回答。目前,各高校和期刊对于ChatGPT对学术诚信的挑战采取全盘否定的片面措施,未能结合教育现状、人工智能发展前沿问题、检测系统等方面,对生成式人工智能给学术诚信的挑战作出准确应对。应对生成式人工智能对学术诚信造成的挑战,必须了解其工作模式及工作模式所对应的挑战,并分析其背后的原因,试提出切合科技、教育现状的应对措施。

一、ChatGPT等生成式人工智能的概念与介绍

首先对ChatGPT等生成式人工智能及其概念进行简单介绍。

(一)概念

ChatGPT即chatgenerativepre-trainedtransformer,从命名上进行拆分理解:chat-generative译为“生成式对话”,表明了其作为生成式人工智能的对话功能;pre-trained译为“预训练的”,表明其需要人类进行预先训练;transformer译为“模型”,表明了其电脑程序的本质属性。从字面上可以将其定义为ChatGPT是一种大型语言模型(largelanguagemodel,简称LLM),这是一种机器学习系统,它可以从数据中自主学习,在对大量文本数据集进行训练后,可以产生复杂的、看似智能的写作。简言之,ChatGPT等生成式人工智能是一种人工智能驱动的,经过学习训练后可模仿人类进行对话的语言模型工具。

与Jasper、Siri、Socratic、小度等传统的生成式人工智能机器人相比,ChatGPT在仿真度上取得了极大的进步,它不仅能回答使用者的各种刁钻古怪的问题,还能模仿人类的语气、逻辑和情感作出相应回答,其在各性能方面都得到了极大的提升。目前ChatGPT以其先进的技术已经通过了包括美国执业医师资格考试、谷歌编码入门级工程师测试等多种高难度的专业级测试。ChatGPT如此高超的生成对话能力也吸引了大量高校学生使用该类生成式人工智能进行论文写作,引发了教育界的担忧。据国外一项对于1000多名学生展开的调查显示,超过89%的学生使用ChatGPT帮助完成家庭作业。一位大学教授曾告诉媒体,他班级中最好的论文也是由ChatGPT创作的。ChatGPT如此广泛使用引发了大量对教育和科研的担忧,根本上是由于其帮助生成科研成果威胁了学术诚信。

(二)生成式人工智能的工作过程与创作模式

1.工作过程

ChatGPT与Jasper、Socratic等工具同属于生成式人工智能,是一种根据人类指令生成新内容,如文本、图像和音乐的人工智能。这些机器具有数据搜索、调取、存储功能,并且在大型数据集上进行练习与优化,使用机器学习算法生成与训练数据相似的新内容。通过这一过程,生成式人工智能能够创建文本、艺术、音乐等“作品”或“发明”等。

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

图1 ChatGPT等生成式人工智能的工作过程

以ChatGPT为代表的生成式人工智能的工作模式通常如图1所示。在输入阶段,制作者建立起该语言模型时赋予其数据搜索、调取、储备与处理功能,并向其提供大量数据信息。该功能目的有二,一是能帮助生成式人工智能进行大规模数据训练和快速调取信息,二是在对话过程中利用其储备与处理分析功能,学习对话者思维,帮助模仿人类。在掌心阶段,生成式人工智能有两项工作,一是利用大量数据进行训练,并生成与优化相应算法。二是根据使用者输入的代码定义(问题)进行数据调配、数据检索和类人化创作。在输出阶段,生成式人工智能将组织的语言进行表达。从生成式人工智能的工作过程中可见,输入阶段中人工智能储备的数据体现了人工筛选性,掌心阶段中人工智能接受的指令体现了人类目标导向性,实际上,生成式人工智能的创作过程仍具有人类导向性。

2.创作模式

ChatGPT帮助人类创作主要有两种模式:一是人工智能独立写作,指由对话者限定创作主题,由人工智能独立进行完整创作。这种模式下使用者仅在目标设定方面发挥了作用,其余工作均由人工智能完成。可以说,在这种情况下,生成物属于人工智能的“独创作品”。二是人工智能辅助写作,指人工智能仅辅助人类搜集、整理、分析该研究课题所需的数据材料等,学术文章的主体工作仍由使用者完成。这一过程是具有人类独创性的作品创作过程,类似于人类与智能机器人的“合作作品”。但无论是人工智能独立写作模式,还是人工智能辅助写作模式都极易在现实生活中产生学术不端问题。

二、对学术诚信带来的挑战

ChatGPT由于其超群的专业创作能力为学术界带来的问题主要有两个层面:在现实层面,主要包括学术抄袭、学术造假问题;在制度层面,以ChatGPT为代表的生成式人工智能构成了对学术诚信制度目的的根本性破坏。

(一)现实层面

1.学术抄袭

人工智能独立写作模式是使用生成式人工智能涉嫌学术抄袭的主要模式。学术抄袭即学术剽窃,指“采用不正当手段,窃取他人的观点、数据、图像、研究方法、文字表述等并以自己名义发表的行为”。目前,利用人工智能进行学术创作涉嫌学术抄袭主要包括两种形式,一是高校学生利用生成式人工智能写作或润色期末论文,这是高校中普遍存在的现象。第二种形式则是选择利用生成式人工智能进行论文写作并投稿给学术期刊进行发表。为应对这两种学术抄袭现象,各高校和期刊也做出了应对。例如,香港大学明令禁止学生使用ChatGPT进行期末论文写作,一经发现便认定为抄袭作弊行为,进行相应的处分。《nature》《science》等国际著名期刊也禁止将ChatGPT列为合著作者。尽管目前各高校和学术期刊编辑部为应对人工智能抄袭情况做出了相应的对策,但这些对策不具有普适性,使用生成式人工智能辅助学术研究的行为仍属于灰色地带。

2.学术造假

人工智能辅助写作是使用生成式人工智能诱发学术造假的主要模式。使用人工智能导致学术造假包括两种形式,一是伪造(fabrication)即编造或虚构数据、事实的行为;二是篡改(falsification)即故意修改数据和事实使其失去真实性的行为。生成式人工智能引用错误数据和事实,或者伪造、虚构、修改数据和事实,这其实是其在回答使用者问题时的常见做法。据ChatGPT的使用者反映,ChatGPT在帮助其进行学术创作时经常会出现虚构参考文献、虚构实验数据、引用错误数据等造假行为。

ChatGPT会“撒谎”的原因有三:首先,谎言存在于ChatGPT等生成式人工智能的构建方式中。ChatGPT作为一款对话机器人,它的代码设定即要求必须回答问题,为完成代码要求,它会不惜编造、扭曲事实。其次,ChatGPT能够学习人类信息,当然包括人类世界存在的谎言,学会“撒谎”第一款高科技的智能产品而言并不难。ChatGPT会“撒谎”也是不断学习人类的结果。此外,生成式人工智能对信息真实度的辨别能力有限,无法辨别谎言,其在收集信息时极易收集到错误的讯息,如涉嫌学术造假的科研成果、数据等,误引这些信息便会造成造假的后果。最后,由于生成式人工智能不能完全还原信息,尤其是对模糊的图片或经人工加密的语言,如某些软件的用户为了避免平台人工智能审查,会使用拼音缩写、同音字等形式进行交流,这些信息对于ChatGPT之类的生成式人工智能都会造成误导。由此导致的结果便是,即使是勤勉诚信的学者在使用生成式人工智能作为学术创作的辅助工具时,仍然会因为ChatGPT的“谎言”或失误,无意出现学术造假行为。

(二)对学术诚信制度的根本性破坏

学术诚信是指在学术活动中应当坚持诚实、公平的基本行为准则。其目的是保障学术研究健康发展,维护科学与人类社会的稳步前进,而以ChatGPT为代表的生成式人工智能对学术诚信的破坏,将对人类科学发展产生长远消极影响。生成式人工智能对学术诚信的影响主要包括阻碍科学突破和破坏制度建设与完善两方面。

1.阻碍科学突破

从经验事实中发现问题,再从问题出发找到应对之策,这就是推动科学突破和社会进步的根本方法。尽管ChatGPT超强的组织和输出能力令人惊叹,但目前人工智能的发展水平尚低,以ChatGPT为代表的生成式人工智能仍属于弱人工智能。不同于强人工智能能胜任所有人类工作,具有一定规划、解决能力,也不同于超越人类最高水平智慧的超人工智能,弱人工智能未有自主意识,也不能真正地发现、推理和解决问题。弱人工智能又称为限制领域人工智能或应用型人工智能,一般只能专注于且只能解决特定领域的问题,只能在设计的程序范围内根据数据进行决策并采取行动,如人脸识别技术、翻译机器人、扫地机器人等。具体而言,弱人工智能没有自主意识,也不能经历与积累现实生活经验,无法从生活经验中发现科学与社会问题,也无法规划和解决超出设定领域的问题,因此也不能产生推动社会进步的学术成果。再者,ChatGPT等人工智能作为LLM,其根本模式就是对话即解决人类已发现的问题,而非提出问题加以解决。人工智能创造学术成果只能基于人类的现有问题与现有方案,却不能产生问题意识与创新举措。如果人类过度依赖生成式人工智能进行学术创作,则因为质疑和创新的火花湮灭而导致人类科学发展走入死胡同。

人工智能问题意识与创新能力缺失的问题也可通过ChatGPT写出的论文大纲证明。根据笔者随机调查的ChatGPT生成的论文提纲可见,ChatGPT只能根据现有情况对于研究主题做出表面探讨,其论文构思都是教科书体例的论文,缺乏基本的问题意识。问题是一切科学研究的逻辑起点,当反复发生的现象挑战了某个现有理论时,一个理论问题便已呈现。我们进行学术创作的目的不是在于在论文中堆积材料研究现有的理论,而是希望发挥人类主观能动性,通过解释和创新去解决现实与理论层次方面的问题,这也是一切自然科学和社会科学进步的根本方法。机器人只能根据使用人的思想或发现的问题而编织论文,不可以发现问题。如果人工智能逐渐成为人类成为科学研究的实际主体,那么将会彻底破坏科学研究之源。

2.破坏制度建设

从法学研究推进制度创新完善方面来看,法学问题根本上是利益衡量的问题,机器人没有实际生活经验,无法进行价值衡量,也无法选择适应人类社会现状的法律制度。以死刑存废改革问题为例,自贝卡利亚提出废除死刑后,死刑问题在全世界范围内一直争议不休。在目前刑罚轻缓化的趋势下,各国在减少死刑适用方面已达成共识,但根据一份2020年在国内25个省、市、自治区开展的调查报告,在三万多受访者中,支持死刑的比重高达88.39%。面对大陆决策层逐渐废除死刑和民众死刑观念的冲突,学界正在积极寻找解决途径。作为没有自主意识的机器人,生成式人工智能无法参与社会生活,既不能理解死刑背后的报复观念和震慑观念,也无法在社会生活中验证死刑存废制度的优劣,若是大量研究死刑存废改问题的学者过度依赖人工智能,甚至于以人工智能机器人作为研究主体,并不能求得现实与价值的最佳契合点,也就不能推进制度的创新与完善。再者,若允许人工智能参与学术研究,岂不是造成了机器决定人类命运的局面。这种结果不仅违背了学术诚信促进科学发展和推进人类社会进步的制度目的,更是对人类社会的彻底颠覆。

三、生成式人工智能破坏学术诚信的原因

生成式人工智能破坏学术诚信的原因有多个。

(一)根本原因:人工智能的主体资格争议

利用生成式人工智能进行学术不端行为之所以屡禁不止,其根本原因在于人工智能法律地位不明,也无法对其生成物进行保护。一方面,虽然其生成作品在数据输入、创作阶段和输出阶段都体现了人类导向性,但由于人工智能作品未体现人类之独创性,不宜将其作品视为使用者作品的自然人作品进行保护。另一方面,由于弱人工智能时代下,人工智能尚未有自主意识,各国法律也未赋予人工智能法律主体地位,因此,人工智能生成的“作品”或“发明”并非各国知识产权法上值得保护的客体,对于歪曲、篡改、剽窃及未经许可使用生成式人工智能的作品更难追责。

对于人工智能的主体资格,世界各国的做法并不相同,有部分国家或地区正在提议或已经赋予人工智能机器人主体资格,如2016年,欧盟委员会法律事务所曾向欧盟委员会提交动议,要求赋予最先进的人工智能机器人次等人格并赋予特定权利义务。2017年,美国汉森公司研究的智能机器人索菲亚被沙特赋予公民资格,这也意味着作为机器人的索菲亚拥有其他沙特自然公民一样的公民政治权利、社会权利和民事权利。但大部分国家的立法并未涉及人工智能的主体资格。

学界对于人工智能的主体资格也是争议不休。进入现代社会,民法主客体二分框架也面临人的遗传基因物质不能简单作为客体物质看待等挑战。以人工智能为代表的特殊物也有可能被赋予法律主体资格。学界观点中,赞成派主张赋予人工智能有限人格或次等人格,反对派则主张人工智能行为的最终责任承担者都是人,赋予其主体资格并无意义。更有学者主张机器人作家—知识产权人的二元主体结构以保护人工智能生成作品的著作权。从哲学角度分析,依据“人和物二分法”和“人是目的”的理论,弱时代的人工智能机器人未有意志能力,有智性却无人之心性和灵性,不同于自然人,弱人工智能并不能成为在自然状态下就存在并代表着人格的民事主体。因此,以生成式人工智能为代表的弱人工智能目前只能是人类的工具,无法获得民事主体资格。对于将来或将出现的具有一定自主意识的强人工智能或超人工智能,可以借鉴于民事拟制主体的理论进一步探讨。

(二)使用者:学术诚信意识不佳和学术追责制度宽松

1.学术诚信意识不佳

从广大学术研究者的层面出发,生成式人工智能破坏学术诚信的另一原因则是学界普遍存在着学术意识不佳的问题。自翟天临论文作假事件后,国家逐步加强对学术诚信问题的监管,开展了毕业论文抽查、查重、盲审等一系列防止学术不端的行为,至今已有4年。然而,在此前长久的时间内,从高校到研究机构对学术诚信意识的培养都较为松散,绝大部分的高校和研究机构在学生培养计划中没有学术诚信课程、讲座等教学安排,导致部分学生和研究人员缺乏学术诚信,缺乏严谨治学的理念。再者,目前各高校和研究机构未形成良好的竞争机制,存在“唯论文论”的不良导向。大多数人为完成学习工作任务,力求优秀,而选择抄袭现有优秀论文的观点,在ChatGPT等生成式人工智能被广泛应用后,这种现象更为明显。

2.学术追责制度宽松

大陆学术追责制度过于宽松,具体表现为缺乏各平台机构的学术不端行为共认与联合惩戒措施,这也导致学者的学术不端行为成为其所在单位的“秘闻”不为外人所知,众多因学术造假问题而被查处的学者摇身一变又去其他地方进行研究工作。许多学术造假者在学术不端事件事发后,只是在原来研究机构被开除处分,而又能去另一处高校任教或研究机构进行研究。除了因造假成果所得的职称、奖励被收回外,其余处罚均未曾落到实处。学术不端行为者在接受处罚后,仍然可以进行任教研究,甚至没有禁业期间。与如此低廉的学术不端成本相比,一旦造假成功未被发现,其所得收益大大超出学术不端行为成本。

(三)研发者:机器人伦理不完善与研发者责任不明

一方面,机器人伦理与控制不完善。机器人三大伦理诞生于20世纪50年代,与现代社会已不相适应,目前机器人伦理亟待完善。具体到生成式人工智能中,目前法律和行业规范对于生成式人工智能的防作弊伦理并未作要求,这导致研发者为了抢夺市场份额,对于机器人的功能毫无节制地开发设计,并不加限制。目前,所有的生成式人工智能开发人员都未将禁止帮助人类进行学术作弊的机器人伦理贯彻至研究开发过程中,甚至未向生成式人工智能植入防作弊程序,这导致机器人能够毫无限制地辅助使用者进行学术不端行为,使得研发者能钻法律漏洞破坏现有学术环境。另一方面,如上文提到的,生成式人工智能会提供虚假信息,由此导致的学术造假行为,法律并未规定研发者应承担的责任。这也让研发者更加肆无忌惮欺骗使用者,导致许多使用者无意中收获了学术造假的恶果。

(四)学术不端行为检测技术较落后

在大陆,中国知网在2008年开发的AMLC系统是目前国内期刊出版单位使用最多的检测系统,其优点是检测速度快、准确率高、抗干扰性强,支持的文件格式多样。随后万方数据库和维普资讯也相继推出WFSD系统及WPCS系统,相比AMLC系统,这2个系统都支持个人使用。北京智齿数汇科技有限公司针对大部分高校毕业生推出了PaperPass检测系统,其比对指纹数据库由9000多万种学术期刊和学位论文、超过10亿的互联网网页数据库组成。以上4种是目前大陆使用比较普遍的检测系统,但仍然存在诸多问题:一是各个系统检测结果差异较大;二是数据库中的论文不完整;三是与生成式人工智能技术的进步相比,以上系统的检测算法应对能力不足;四是对于自引、他引或抄袭的区分不够精准;五是不能检测论文中的图片、图表。

四、生成式人工智能挑战学术诚信的应对之策

造成人类利用人工智能进行学术造假的根本原因是人工智能主体地位未定,机器人作品未获得保护。但由于目前弱人工智能时代下,人工智能还未能完全摆脱人工控制,不具有独立的意志能力和责任能力,由此不宜确定为“人”。可以适当借鉴民法的拟制民事主体理论,既能赋予人工智能的生成物以法律保护资格,又能督促人工智能的实际控制人规范人工智能的应用。在赋予其拟制主体的基础上,从实际出发研究推行可供执行的应对之策。

(一)逐步确立生成式人工智能主体资格

逐步推进赋予机器人主体地位,对作品进行保护,参考与适用专利权法律体系对学术不诚信问题进行规制。应对抄袭人工智能作品导致的学术不端行为,根本在于尽快探索人工智能的法律主体可能性。在人工智能生成物知识产权领域,既要考虑解决现实问题和符合制度目的,同时也需要关注法理基础。目前人工智能的基本主体资格尚未确定,却在特别领域—学术诚信领域研究生成式人工智能问题,存在无根之木无源之水的困境。“法学理论和法律制度应当及时关注和回应技术带来的新问题,不可以抱残守缺,但也不能脱离体系化思维。”因此,更需要重视探索人工智能法律主体问题。

关于人工智能法律主体资格的问题,弱人工智能无自由之意志,无自我之意识,且受人类之支配,因此,现阶段人工智能并不能成为“人”。但随着科技发展,将来具有一定自我意识的强人工智能与超人工智能或将成为法律拟制主体。借以法人资格为例,当人工智能能以自己名义拥有财产时,或能承认其拟制法律主体资格。在人工智能生成作品的权利方面,以其研发者、投资人、使用者或其他实际控制人为人工智能的意志主体,作为权利义务的最终承担对象,为规范人工智能的生成工作和维护智能机器人生成作品而工作。研发者、投资人等实际控制人还可以为人工智能的作品设定专门财产,进行管理。对于侵犯机器人作品财产权的行为,管理人进行代为追责,维权费用与侵权赔偿款项均归于机器人专门财产。

(二)使用者:树立学术诚信意识与完善追责制度

1.对于诚信者

首先,需坚持以人为本的学术研究理念,树立严谨治学的学术诚信意识。促使各研究者认识到ChatGPT等弱人工智能在问题意识和创新能力上的欠缺,明白真正的学术成果需从社会实践生活中得出,也要通过实践之考验,人工智能生成的学术成果只是纸上谈兵。其次,要坚持生成式人工智能对人类实践活动与学术研究的辅助地位。允许各研究人员正确使用生成式人工智能进行数据资料收集、案例检索、渊源比较、实验数据分析、论文优化等辅助性学术研究工作,提高科学研究的效率。在遵循学术规范和学术伦理的前提下辅助总结、梳理现有研究成果,克服现有计算机的部分缺陷,提高科研效率和质量。最后,各高校与研究机构要加强对学生与研究人员的学术诚信教育。高校、研究机构应当进行学术诚信教育活动,激发各研究者认识学术诚信制度的重要性。在高校开展学术诚信课程,教授有关学术不端行为、学术引注常识,讲述学术造假事件与造假后果等学术诚信知识,培养与加强各研究人员的学术诚信意识。

2.对于不诚信者

对于不诚信者必须制定严格的问责规则,包括法律责任和行业责任两方面。

在法律责任方面,若在写作学位论文时有抄袭、造假等学术不诚信行为,要对其终身追责,一经发现则需要取消相应学位及随后取得的学位。研究人员在各期刊投稿的论文有学术不诚信行为,并且对作者所在高校或研究机构造成严重损害的,需要对作者所在单位和刊文期刊承担退还稿费、赔偿名誉损失等民事责任,并且可以根据各单位和期刊规章要求,给予撤回科研奖励、取消职称升迁、开除或禁止投稿等处罚。根据中共中央办公厅、国务院办公厅印发的《关于进一步加强科研诚信建设的若干意见》的要求,对于严重违背科研诚信要求的行为,积极开展刑事规制理论研究,推动立法、司法部门适时出台相应的刑事制裁措施。这也意味着在将来学术不端行为或将追究刑事责任。

在行业责任方面,主要是指各高校和研究机构应当依法依规对严重违背学术诚信者进行联合惩戒。首先,应当建立科研诚信信息跨部门跨区域共享平台,各高校与研究机构应当共享不诚信人员记录,提高学术不端行为成本;其次,推动学术不端者结果互认,逐步建立各平台学术不端的统一认定标准;最后,教育行政部门、教育机构、科研机构等平台联合出台惩戒措施,包括学历学位授予、岗位聘用、评选表彰、科研立项等多个方面。

(三)研发与管理者:完善机器人研发与明确管理者责任

1.完善机器人伦理

传统的机器人三大定律已无法适应复杂的现实。机器人第一法则要求机器人不得伤害人类,但面对当今社会日益复杂的利益关系网,很难回答机器人的推广究竟是利于人类还是伤害了人类。例如,大量智能机器人在生产领域的使用,既为投资者带来了大量利润,也大大降低众多商品的价格,使更多人能够享受更好的商品和服务,与此同时却也造成了数百万人失业,生活难以为继。在生成式人工智能创造作品方面也存在着提高科研效率和恶化学术不端的利益冲突。有学者就曾提出过新机器伦理原则,认为机器人只是为了满足人类的需求,促进人类的自我完善而服务。笔者认同这一观点,人工智能应当作为专业人员的补充,而非完全替代专业人员,必须坚持其辅助者的地位,因此建议研发人员重视机器人伦理的完善,特别注意细化机器人的伦理要求,例如,为避免使用人工智能造成学术不端,可以在机器人程序中植入防误引程序和防作弊程序。“防误引”程序在人工智能无法清晰识别文字、图片等信息或无法寻找到相应答案时启动,终止人工智能的回答。防作弊程序则需要从指令识别和机器作品留痕两方面做起。一方面对于人类输入的创造性指令,一旦触发作弊程序,被识别为作弊指令,就会对该指令发出警告,停止回答或禁止使用机器人作品。另一方面,也可以在机器人作品中加入不可消除的机器人作品水印,便于识别机器人作品,以防人类利用生成式人工智能进行牟利。

2.明确研发者责任与义务

在未依法植入机器人防误引程序和防作弊程序的情况下,可以推定研发者有放纵人工智能机器人进行学生不端行为的间接故意。在此种情况下,研发者应当对使用者被误导而造成的学术造假行为承担相应责任。对其造成的名誉损害应当进行公开赔礼道歉和名誉损失赔偿,所造成的期刊稿费损失需要进行赔偿,并且要修改或销毁其研发的人工智能,避免再次造成学术造假成果。

在研发者已植入机器人防误引程序和防作弊程序的情况下,由于此前提到的人工智能在识别模糊信息和人为加密信息方面的能力较低,人工智能仍可能出现提供错误信息的情况,由此造成的学术造假行为不能完全归责于研发者。只要研发者在使用规范中设置了防误引程序,并且明确告知使用者人工智能存在的隐患,就能避免承担责任。关于研发者的告知义务,笔者认为需要明确告知方式,采取告知—同意模式,征得使用者的同意。在告知内容方面,应当包含人工智能的技术弊端、可能造成的学术不端风险以及误导信息等。在尽到告知任务并取得同意后,对于之后由人工智能造成的学术不端便可以免除责任,反之则需要承担与第一种情况下一样的责任。

(四)完善学术不端行为检测系统

1.及时完整的统一数据库

目前各学术不端检测系统间缺乏信息共享,导致部分不诚信者钻空子,获得学术诚信报告。为尽快弥补这一缺陷,推进各检测系统数据完善,建议各检测系统之间友好协商,构建统一的数据共享平台,以此完善个体数据库信息并弥补检测漏洞。另一方面,也需要保障检测系统的及时性,需要与各大出版社与期刊、杂志编辑部密切联系,打造检测系统与出版社之间的信息平台,及时同步更新发表的文献。检测系统缺乏及时性的突出原因是各检测系统对于论文“网络首发权”的争夺,因此建议检测系统与各出版部门达成友好协商,构建稳定长期的合作,以便及时保障数据更新。完整与及时更新数据库。

2.增加图表相似性检测功能

在文章相似性检测中,图片的相似性检测往往是最困难的,因为目前没有任何一个软件或算法能够准确分析2张图片的相似性,尤其是在作者刻意进行修改的前提下。图像相似性检测是一种视觉数据内容跟踪的方法,能够检测操纵和改进数据来源检测方面。在由Coggle数据科学举办的一项图像相似度检索比赛中,参赛者通过使程序代码深度度量学习,并使用了局部-全局匹配策略,使得程序能在100万张参考图像中寻找到与50K查询图像具有一致性的图像,匹配正确率极高。知网目前只有图片检索功能却无图片相似性检测功能,导致对于论文图像抄袭现象难以发觉。因此,应尽快升级文献引证识别功能、开发图表识别技术,检索范围中的文献数据。建议学术不端行为检测系统尽快研究开发图表相似性检测功能,对于人工智能抄袭行为进一步防范。

3.利用AI技术建立智能化检测系统

对于生成式人工智能辅助使用者抄袭的行为,笔者在上文建议在人工智能作品中加入机器人作品的水印,因此,对于作品检测中也需要增加对于机器人作品水印的检测,一旦发现该学者上传的文章属于人工智能作品便会发出警告,并不予以通过相似性检测。对于不通过相似性检测后该作者申诉的,可以加以人工智能对话式检测,由人工智能对作者关于论文的内容、数据等进行提问,并根据作者的回应判断作品是否为作者亲自写作。

结语

由于“黑箱算法”的存在,人工智能在诸多领域都难以评价和监督,由此带来的数据泄密、自动驾驶失控等问题层出不穷。细化到人工智能生成物对学术诚信的挑战方面,应当加强对人工智能生成物的保护,与此同时更要强调算法公开和权限同意,加强此阶段的人工评价和监督,以人的道德价值引导人工智能创作之过程。人是目的而非工具,面对人工智能如此强大的创作能力,需以人类合乎道德的目的去指引人工智能的发展与使用。相信在不远的将来,人类正式步入超人工智能时代后,人工智能机器人有望获得法律主体资格,其带来的问题也有望完善解决。

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

继续阅读