1956年夏天,一群数学家和计算机科学家占领了达特茅斯学院数学系大楼的顶层。在大约八周的时间里,他们想象着未来新研究领域的可能性。达特茅斯学院(Dartmouth College)的年轻教授约翰·麦卡锡(John McCarthy)在为研讨会撰写提案时创造了"人工智能"一词。他说,这将探索会议的核心假设,即"人类学习过程的所有方面,或者人类智能的所有特征,原则上都可以被准确地描述,所以可以建造一台机器来模拟它。"
在那次传奇的学术会议上,研究人员勾勒出了我们今天对人工智能的了解。它催生了研究人员的两种倾向,一种是"象征主义者",他们开发了一种"专家系统",在1980年代达到顶峰。在会议之后的几年里,也有一些"连接主义者",他们几十年来一直致力于开发人工神经网络智能,直到最近才开始取得重大成果。
长期以来,这两种趋势一直被视为相互排斥,不同取向的研究人员之间的投资竞争造成了敌意。双方都认为自己的立场是通用通用人工智能的积极解决方案。
回顾1956年大会以来的过去,人工智能研究人员的希望往往破灭,但这些挫折对他们影响不大。现在,即使人工智能正在彻底改变这个行业,并可能扰乱全球劳动力市场,许多专家也想知道今天的人工智能是否已经达到了其功能潜力的极限。
正如另一位作者在一篇题为"人工智能失败的七种可能性"的文章中所概述的那样,当今深度学习系统中的缺陷正变得越来越明显。但是,开发人员几乎没有危机感。
是的,在不久的将来,这个行业可能会有另一个人工智能的冬天。但也可能是励志工程师最终让行业知道对机器的真正想法的时候。
"象征主义者"首先以简单明了的方式向计算机灌输知识。他们最初的想法是,知识可以用一组规则来表示,计算机程序可以使用规则逻辑来操纵这些知识。"象征主义者"的领导者声称,如果一个符号系统有足够的结构化事实和预设的规则,这些知识的聚合最终将导致一个共同的人工智能。
另一方面,连接主义者受到仿生学的启发,发明了"人工神经网络",可以接收信息并理解其含义。
"连通性"最典型的开创性先例是"感知",这是一台由康奈尔大学心理学家弗兰克·罗森布拉特(Frank Rosenblatt)在美国海军资助下建造的实验机器。它有400个光传感器组成视网膜,为大约1000个"神经元"提供数据,这些神经元处理并产生单个输出。
1958年,《纽约时报》的一篇文章援引罗森布拉特的话说:"这台机器将是第一台像人脑一样思考的设备。
过于乐观的估计导致美国和英国政府机构盲目地将资金投入到投机性研究中。1967年,麻省理工学院教授马文·明斯基(Marvin Minsky)写道:"在一代人的时间里......创造"人工智能"的挑战将得到实质性解决。"
然而,此后不久,政府资金开始枯竭,因为官员们发现人工智能研究未能兑现他们暴跌的承诺。20世纪70年代见证了人工智能的第一个冬天。
然而,真正的AI信徒并没有放弃。到20世纪80年代初,"象征主义"人工智能研究人员为人工智能研究带来了新的鼎盛时期,因为"专家系统"有可能完全编码来自特定学科的信息。投资者希望这些"专家系统"很快能在法律或医疗行业找到商业应用。
最著名的"象征主义"人工智能项目始于1984年,当时研究人员道格拉斯·林内特(Douglas Lynette)开始了一个名为CYC的项目,该项目旨在将常识编码到机器中。直到今天,Lynette和他的团队仍在继续向CYC的程序字典中添加事件和概念的数据,并通过程序规则解释它们之间的关系。到2017年,CYC的字典有150万个事件条目和2450万个常规条目。然而,CYC远未实现普遍智能。
20世纪80年代末,商业世界的寒风带来了人工智能的第二个冬天。"专家系统"市场已经崩溃,因为它们需要昂贵的特殊硬件,无法与日益普遍的廉价台式计算机竞争。到20世纪90年代,人工智能研究,无论是"象征性的"还是"连通性的",在学术界都不再流行,因为这两种策略似乎都失败了。
但是,取代"专家系统"的廉价计算机对连接主义者来说是一个福音,他们突然获得了足够的计算能力来运行具有多层人工神经元的人工神经网络。这样的系统被称为"深度神经网络",它们的工作方式被称为"深度学习"。多伦多大学的Joffrey Hinton引入了一种称为"反向传播"的原理,允许神经网络从过去的错误中学习。
Hinton的一名博士后学生于1988年进入AT&T的贝尔实验室,在那里他开创了使用神经网络进行光学字符识别的技术,美国银行迅速采用该技术来处理支票。Hinton等人最终获得了2019年图灵奖,他们经常被称为"深度学习的教父"。
但神经网络的倡导者仍然面临着一个大问题:他们有一个更好的理论框架,计算机的能力正在增长,但世界上没有足够的数据来训练他们的系统,至少对于大多数人工智能程序来说不是这样。人工智能的春天还没有到来。
在过去的二十年里,一切都变了。随着互联网的蓬勃发展,数据无处不在。数码相机和智能手机在互联网上充斥着图像,维基百科和Reddit等网站充斥着免费访问的文本,YouTube上有很多视频。最后,需要足够的数据来训练神经网络。
另一个主要发展来自游戏行业。Ingweeda等公司已经开发出功能强大的显卡来处理游戏中的图像,执行复杂的着色和几何变换。需要强大计算能力的计算机科学家意识到,他们可以使用图形卡执行其他任务,例如训练神经网络。
Ivega注意到了这一趋势,并创建了CUDA,这是一个允许研究人员使用显卡进行通用处理的平台。研究人员中有Hinton Labs的一位博士,他使用CUDA单独编写神经网络代码,这在2012年让所有人感到惊讶。
他为"图形网络"竞赛撰写了这篇文章,该竞赛旨在挑战人工智能研究人员设计前瞻性的计算机系统,将100多万张图像分为1000个类别。虽然这个神经网络不是第一个用于图像识别的神经网络,但它在2012年比赛中的表现引起了全世界的关注。AlexNet的错误率为15%,而第二名的错误率为26%。
神经网络的成功归功于显卡的计算能力和650,000个神经元的多层"深度"结构。在接下来的一年的"图谱网络"竞赛中,几乎所有人都使用了神经网络。到2017年,大多数参赛者的错误率已降至5%,组织者将不得不结束比赛。
深度学习正在起飞。凭借显卡的计算能力和用于训练深度学习系统的大量数据,自动驾驶汽车可以在路上行驶,语音助手可以识别用户的声音,Web浏览器可以在几十种语言之间进行翻译。人工智能在以前被认为被机器不败的游戏中击败了人类冠军,例如旧的棋盘游戏围棋和视频游戏《星际争霸II》。当前人工智能的蓬勃发展已经触及了每个行业,为做出复杂决策提供了新的方法。
但深度学习不断扩大的成功取决于神经网络层数的不断增加以及用于训练它们的芯片的工作时间。人工智能研究公司OpenAI的一项分析发现,到2012年,训练世界上最大的人工智能系统所需的计算能力每两年翻一番,然后每3.4个月翻一番。许多研究人员担心,对人工智能的需求正走在不可持续的轨道上。为了避免超过可用功率的限制,研究人员需要打破构建这些系统的既定方法。
虽然看起来"连通性"神经网络阵营已经彻底打败了"象征主义",但实际上这场斗争的结果并没有那么简单。例如,OpenAI的机器人因其拼写自己的魔方的能力而成为头条新闻。机器人的AI使用神经网络和"符号"程序规则。它是许多新的AI系统之一,该系统使用神经网络进行感知和"符号"AI进行推理,这是一种混合方法,可同时提高AI效率和解释性。
然而,神经网络系统通常是不可信的不透明黑匣子程序。你现在能有一个道路清洁机器人给你做一杯咖啡吗?这在今天是一个荒谬的命题,因为深度学习系统是为单一目的而构建的,不能将其功能从一个任务扩展到另一个任务。
更重要的是,学习一项新任务通常需要人工智能清除它所知道的关于如何解决以前任务的一切,这个难题被称为"灾难性遗忘"。在谷歌位于伦敦的人工智能实验室DeepMind,机器人专家正在使用各种复杂的技术来解决这个问题。其他研究人员正在研究新型深度学习系统,这些系统将教会人工智能如何学习,然后将技能应用于任何领域或任务。
所有这些技术都可以帮助研究人员实现他们的最高目标:用孩子们成长过程中的流体智能来构建人工智能。年幼的孩子不需要很多数据来得出结论。他们只是观察世界,创建一个如何运作的心智模型,采取行动,并使用他们行动的结果来调整心智模型。迭代,直到孩子理解现实世界。这个过程非常高效和有效,甚至超出了当今最先进的人工智能的能力。
目前社会对AI的热情,对于AI产业来说,又一次赢得了黄金时代,AI的资金处于历史最高水平,几乎没有证据表明未来的投资会下降。世界各地的公司都在采用人工智能系统,因为他们看到他们的短板可以立即改进,所以他们永远不会停止使用人工智能。
但是,研究人员能否最终解决65年来一直没有解决的终极人工智能难题:"让机器更像我们",让深度学习算法更具适应性,还有待观察。