天天看点

该冷静认识一下ChatGPT和它的价值了

作者:随思录

本来不想凑这个热闹,不过前两天手欠写了些评论,结果收到一些回复,感觉很多人对 ChatGPT的认知,更像是从科幻小说中推导出来的。所以想啰嗦几句,聊聊圈内人对他的一些认识。

国内对于ChatGPT的分析,圈外的评论和报道多是老百姓的科幻想象和资本的狂热追逐。且因为微软ChatGPT的底层技术OpenAI并没有完全公布其技术方案细节,所以大家更多的也是基于它的相关论文猜想。那么我就用通俗一点的语言来讲讲圈内(行业内)对这个东西的评价。

首先要强调一点,类似GPT这种大模型,国内国外都在做。技术上各有特点。并不是好像突然被发明的,好像突然史诗般的给人类放了个大招,那些都是科幻小说看多了。但是这些技术向应用转化是一件非常费钱的事(有一种担忧,未来通用大模型AI可能只会被少数国家的少数企业所垄断),微软的价值就在于它是第1个吃螃蟹的。

ChatGPT惊艳是因为迈过了图灵测试这个分水岭,像人了,甚至在某些方面比人还强。但离完善还差很远,一些连部分人都不知道的东西,就不一定勉强它。至于其开发团队不承认跨过了图灵线,我理解只是说没有在各个领域全面通过图灵线。即便如此,有能力在主要领域跨过了图灵线,就证明全面跨过图灵线只是一个时间问题,换句话说就是OpenAI已经被证明具备了跨过图灵线的能力。

我个人认为,跨过图灵线的一个重要涵义就是机器能替代人的智力工作了。“图灵线"就是“图灵测试的分界线”的简称。图灵给出的一个操作性定义:你分辨不出来是人还是机器在回答问题就是通过了图灵测试。

给个例子,我们看到OpenAI确实对于分析人的语义,并按照人的知识组织回答方面是很成功的。但结果也能看到还不够完善。

该冷静认识一下ChatGPT和它的价值了

早期的人工智能使用了基于形式逻辑的规则推理机制,解决了大部分智能表现,产生了人工智能的一个发展高潮,决策支持可以实用。后来,面对新的瓶颈,提出了基于人工标注的语料库的统计学辅助分析方法,统计学引发了再一次人工智能高潮,有限集下的语音识别,图像识别基本可用。面对新的瓶颈,模仿人脑神经触头,构建了神经网络,通过不断地强化训练学习逼近人脑工作模式,但是一直不能解释。尽管如此,人工智能进步还是明显的。后来,神经网络的层次大幅度增加,优化学习的参数调试过程特别耗费,模型不断变大,调优算法成为关键,算法改进步伐跟不上时代,接着算力提升用来补救。ChatGPT出世了。

ChatGPT依靠预训练的大规模对话式的语义资料库,生成机器与人的对话场景,ChatGPT生成的对话有一个精确度问题,对话语义资料库参数量愈大,ChatGPT对话的精确度愈高,在不断训练迭代下,使ChatGPT生成的对话已分不清是机器在讲还是人类在讲,此时是否就达到了图灵测试的分界线?!

一部分专家认为,GPT序列开发的大规模语义网络预训练的语义库其库容参数却在不断增加,是否是为了克服知识逻辑推理机制的缺陷,其库容参数的增加有助于机器理解丶生成人类自然语言的能力。当然也有部分人认为他并没有知识逻辑推理。

GPT-4有170万亿个参数,6层encoder-decoder每层两个子层的复杂系统,我们只能以简驭繁,知识逻辑推理都太复杂了。

再引用GPT-4的技术报告:

GPT就是预测一个句子下一个单词:P(x_n | x_n-1, x_n-2, ……),条件概率。没有什么“知识逻辑推理”。

"GPT-4 is a Transformer-based model pre-trained to predict the next token in a document."

按照台湾的一档科普节目所讲。ChatGPT就是单词接龙。就是把一句句子的单词一个一个通过AI方式接起来。当然这只是语言输出的方面,另一方面的语义理解我们还不得而知。

GPT一4有170万亿个参数,没错!GPT序列在发展中,参数量在增加中!

GPT(2018)1.17亿参数,

GPT-2(2019)15亿参数,

GPT-3(2020)1750亿参数

我的观点,参数量增加,在补偿其缺乏知识推理机制的条件下,通过查询大规模、经训练、高参量的语义库,也可提高机器生成自然语言的能力!

我们可以发现,OpenAI在推出ChatGPT或GPT-4时,总要说一句话:它们是基于机器学习或深度学习的,而这正属于弱人工智能领域。有人也称为人工公用智能AGI,或称基于人工神经系统,这正是机器学习或深度学习(弱人工智能)的特点。GPT-4技术报告,在开头的介绍篇中谈到GPT-4的能力:结论是不如人类。谈到专业学术水准时:表现人类水平。看来它还是一种过渡型的!其参数量还在增加中!

从人工智能发展的历史,我们不难看出,在模型建立的情况下,算法和算力才是关键。从这个角度来说,微软的openAI和百度的文心一言在模型上是类似的,在算力方面,微软这些年投入巨资,基于它的云平台Azure,可以提供很强的算力。百度在这方面虽然没有微软财大气粗,投入也并不少。圈内人都知道北京的一个芯片独角兽叫昆仑芯,其实就是百度孵化出独立运营的算力芯片企业。在算法方面,美国多年的积累肯定是有一定优势的,但中国的这些科技巨头这些年的高投入差距不会很大。好的算法也是可以弥补算力不足的。所以从某种不很专业的角度来说,你把算力搞上去,把参数库做大,出来的结果就会更好。就是要使劲投钱了。

微软这次的出圈真正的意义是让大家看到人工智能在一些更主要领域内落地的可能性。如果说ChatGPT只是一个小玩具,那么openAI作为这种人工智能的底层平台,支撑微软将这种能力全面导入它所有的产品。我们从一些测试版可以看到,包括bing搜索,浏览器,office软件,项目管理,开发工具,游戏开发等等,让用户体验和效率都上了一个大台阶。给产业巨大的想象空间。国内在这方面肯定也会跟进,但恐怕真正的核心企业并不全是目前被炒作的那几个。微软更多起到了产业示范作用。

从资本市场的角度,我们应该理性看待ChatGPT,他确实给我们带来了全新的应用体验。但要将它完全落地,还需要时间。尤其是在国内,不盲目跟风炒作很重要,人工智能可以在许多领域落地,需要踏踏实实的去做。在这方面国内技术并不落后,这是社会应该认识到的,但将这些技术应用起来,则需要有挖掘更多的需求,投入更多的力量。即便对于微软,我们说他走了一步好棋,那也是因为他家全套的生产力工具产品有这样的需求,能够产生相应的商业价值,微软才会去大力投入。所以提高全社会的数字化水平,拉动这种需求,也是至关重要的。

非常反对媒体和资本市场的过度炒作,那些往往是为了迎合赌徒们收割普通投资者的计量。最后搞的资本市场一地鸡毛,也无助于产业发展。

最后说一下我对人工智能的看法。对此有很多人恐慌,我是偏乐观的,这是把人解放出来从事更有创造力的事,以及生活的享受。机械工作机器干了,大部分智力工作也是机器干了,一个人如果对生活的需求不到奢侈级别,可以不工作也有生活必需品供应,工作成为生活需求而不是生存需求,人依然需要在机器辅助下更深入研究世界(例如意识到底是什么)、做更大的创新(例如接近光速的飞船)、更好地保护我们的躯体(永生?)、创造更好的艺术,人类会达到一个更美好的文明。#人工智能##科技圈大小事#

$百度(BIDU)$ $科大讯飞(SZ002230)$ $云从科技-UW(SH688327)$