天天看点

当人工智能遇上法治难题,听专家学者怎么说

作者:随性说说客

导语

《人工智能+法律 加速新质生产力发展》一日主题专题讲座。

杨浦区图书馆“静思讲坛”活动正式启动,此次专题讲座的主讲人便是杨浦区领军法师团成员、上海政法学院信息法律研究所教授徐伟。

讲座活动正式开始,徐伟教授以独到的视角对人工智能和法治发展之间的关系进行专业性探讨,也为在场的市民读者开启了人工智能与法治之间的新思路。

随着此前人工智能领域的各类成果和技术创新不断涌现,人工智能不仅作为一种新生产力受到诸多关注,同时也开始落入法律的视野,因此,有些人推断出可能未来还会有一些人工智能相关的立法出台。

在活动现场,徐伟教授便分享讲解了人工智能技术背景,随后又着重探讨了当前人工智能技术中尚待完善的法律制度,并就此对未来的发展进行了展望。

人工智能技术路径。

人工智能(Artificial Intelligence)这个专业名称在20世纪50年代便已经开始出现,从此以后便成为了全球各国科研院所和研究人员们经久不衰的研究方向之一。

人工智能技术的核心,正是在于其使用仿生性的方式,将一个系统中大量的信息处理单元整合起来,经过各种输入处理,最终能够生成人类能够接受的输出,从而完成了一定的任务。

人工智能这一研究领域之所以如此受到热捧,是由于人们发现,在一些特殊的环境或场景下,传统的计算机系统和程序已经不再能够胜任任务,而人工智能系统却能够在此类场景中发挥出很好的作用,因此开发出人工智能系统能够大大提高系统的灵活性和智能化程度。

但在人工智能研究的同时,人们也发现,想要真正的实现一个人工智能系统的研发并非易事,这一巨大的挑战困难在于人工智能这一领域牵扯的太多,人工智能的技术路径不仅非常复杂,而且相关研究领域也有很多。

简单来说,人工智能的技术路径可以大致归结为两类,一类是符号主义路径,另一类便是联结主义路径。

而在接下来的讲解中,徐伟教授通过对两类路径进行对比,为在场人们解读了人工智能系统中的技术难点,也为进一步讨论当前人工智能发展中需要改进的法律制度方向打下基础。

联结主义路径是一种从仿生学角度出发的人工智能发展思路,联结主义模式从人脑中的神经元开端,将其作为研究基础,构建起人工神经网络,通过在神经网络中大量并行处理信息、提取特征等方式工作,来模拟人脑的工作原理。

联结主义模式的人工智能系统在工作时,大多会选用具有各种各样的输入元,对其进行处理和解析,从而获得最后期望的输出结果,这就是联结主义模式下人工智能系统工作的基本原理。

但在实际搭建工作中,研究人员们发现,尽管神经网络的机制和大脑神经元的工作机制在结构上很相似,但神经网络模型在工作过程中,却很难真正模仿出大脑的智能特征,因此很难完全符合人们对人工智能系统的要求。

因此,联结主义路径的人工智能系统在实际应用过程中,经常会出现结果不太理想的情况,甚至存在一些重大的缺陷和不足,这也不断加大了人工智能系统研发的难度。

人工智能发展中的法治难题。

联结主义的基础问题主要在于:人脑大脑神经元的结构和工作机制,远没有人们原本设想的那样简单,因此构建一个完美的神经网络,将很难在人工智能系统中实现人脑的智能能力。

另一类人工智能技术路径,符号主义路径则相对于联结主义路径而言更受欢迎,这种模式下的人工智能系统工作原理,更优先从抽象理性角度出发,通过推理和逻辑等形式处理信息,从而最终得出正确的结果。

相对于联结主义,符号主义路径在工作时不再依赖于数学和概率处理,而是直接构建起了能够直接处理逻辑推理、符号运算等信息的人工智能系统,在实际应用中,符号主义路径的人工智能技术工作效率和结果普遍更为优秀,因此也更受科研人员们重视。

但与此同时,符号主义也并非完美的,符号主义人工智能系统非但比联结主义人工智能系统更难调试和维护,甚至还有可能因为某一个不经意的操作而导致系统崩溃。

最终,随着人们对两类技术系统的深入探索,人们开始逐渐意识到,人工智能的发展,不是联结主义和符号主义两种技术路线中的争论问题,而是两种技术路线的结合问题。

联结主义人工智能系统模仿人脑神经网络的工作,无疑使其在处理信息等方面拥有了强大的能力,但是也因此,联结主义的人工智能系统在处理信息时通常需要依赖概率等处理手段,以及从信息中猜测推理的手段。

当人工智能遇上法治难题,听专家学者怎么说

这无疑给联结主义人工智能系统带来了一个非常严峻的挑战,而这个挑战就是,联结主义的人工智能系统在工作中会因为使用概率等“猜测”手段,而且无法确保结果一定正确,因此也就无法做到保证输出结果的正确率。

这就为联结主义人工智能系统带来了难题:即便人们不断的投入资源进行研发,联结主义人工智能系统的结果可能依然难以让人满意,而且极有可能会出现严重的安全隐患,甚至造成不可弥补的损失。

因此,为了人工智能系统的发展不至于在联结主义和符号主义两类技术系统之间止步不前,更为深入的探讨就成为了当前人工智能发展方向中最为迫切需要解决的问题。

人工智能作为应用于技术领域的技术不仅能带来巨大的利好,同时也会带来相对应的挑战和问题,而这些问题就需要通过法律体系去加以解决和应对。

徐伟教授对人工智能发展中面临的法律难题进行了重点分析,根据人工智能技术系统的基础,将其所面对的法律困境总结为了三个方面,分别是:数据获取与利用难题、算法伦理与责任判定、以及算力资源部署。

数据获取与利用难题指的便是,人工智能在进行工作时,最实质的任务离不开大量的数据支撑,也正是通过大量数据支撑,人工智能系统能够进行信息处理和分析,从而得到最终结果。

然而,随着人工智能系统不断发展,目前人工智能系统使用的数据,主要是通过各种互联网软件和平台,通过用户上传获得的,而这种模式,人们一般称之为“数据池”模式。

徐伟教授认为数据池模式存在很多问题,其中最严重的问题就是用户的隐私数据难以得到保证,尽管用户上传的数据可能是隐私数据,但是人工智能系统是无法识别数据内容的,因此完全有可能将用户上传的隐私数据,当作普通数据用于训练和工作。

目前,法律对于隐私保护方面的规范仍然不完善,但随着人工智能的迅猛发展,用户的隐私数据保护问题正逐渐凸显,因此也有望在未来成为立法的重点方向。

当人工智能遇上法治难题,听专家学者怎么说

算法伦理与责任判定方面,主要涉及到人工智能算法和系统所面临的问题,尽管人工智能系统在工作中存在一大问题就是无法保证结果一定正确,但是现代社会中,仍然有许多人会将人工智能系统的结果当作指导决策使用。

因此,随着人工智能系统不断被应用于社会生活中,算法产生的后果,将给社会带来巨大的影响,但是在此过程中,人工智能系统无法对结果负责,也不能被追究责任,这就将为社会治理带来极大混乱。

算力资源部署方面则依托于计算机技术,主要是指人工智能系统在工作过程中所依赖的计算资源,是网络中的另一个非常重要的问题。

人工智能系统的庞大数据处理需要,通常会对服务器负载造成极大压力,同时也会耗费大量资源,这就为计算机系统中的资源部署带来很大压力。

但是在现实中,像是互联网这种通用网络,是很难真实应对人工智能系统的庞大需求的,因此,徐伟教授认为未来,人工智能系统的算力资源部署方向,也有望在法律中得到更多的规定和约束。

当人工智能遇上法治难题,听专家学者怎么说

人工智能发展未来的法治需求。

人工智能作为未来的新兴产业,无疑将会对人们的工作生活等各个方面产生深刻影响,因此在人工智能发展的同时,也要加强人工智能规范化的建设。

徐伟教授就在人工智能未来的发展方向中总结出一些法治需求,其中包括对开发者和使用者的权利规定、隐私保护设施的建设、算力基础设施的建设、以及法律上对人工智能系统的应用做出明确规定等。

开发者和使用者权利规定方面,主要涉及到人工智能技术的知识产权问题,随着人工智能系统的不断发展和应用,其知识产权问题也逐渐受到重视。

在人工智能知识产权问题中,既有技术成果的保护和使用权问题,也有用户对上传数据的使用权问题,徐伟教授认为在明天的法律体系中,将有望对这些问题做出规定。

算力基础设施建设方面,则主要是为人工智能技术的发展提供技术支持,人工智能技术系统的发展离不开服务器等计算资源,但是在实际中,人们发现目前的计算资源非但不能满足人工智能系统发展的需要,甚至还给人工智能系统的开发带来了诸多麻烦。

人工智能系统的开发过程中,计算资源的部署问题不仅极大耗费人力物力,而且还会因为资源短缺等问题,导致人工智能系统的研发进展缓慢,也有可能因为服务器资源不足,而导致系统崩溃或出现其他重大问题。

因此,徐伟教授提出,将来有望在法律中对算力基础设施提供支持,可能会有很多“云计算”以此解决这一问题,这方面的法律法规出台后,将会使人工智能技术的发展变得更加顺利。

结语

杨浦区图书馆“静思讲坛”专题讲座的互动交流会,旨在为广大市民读者搭建一个与名家专家们互动交流的平台,在此次“静思讲坛”专题讲座活动中,杨浦区营造出了一个专业与人性兼备的会场环境,受到了在场每一位读者的青睐。

对于人工智能领域的发展,我们有必要认识和关注,同时也希望通过专家讲座等互动交流的方式,能够将更多信息传递到公众手中,从而引起更多人对人工智能领域的关注和思考。

人工智能的发展离不开法律的约束和保护,而法律本身也需要不断完善和更新,以适应人工智能技术的快速发展,并解决新问题,

继续阅读