天天看点

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

CNCC2024

论坛简介:

探索大语言模型的潜能与局限-大语言模型的能力边界在哪?

举办时间:10月26日13:30-17:30

地点:夏苑-英国馆一楼教室10

注:如有变动,请以官网(https://ccf.org.cn/cncc2024)最终信息为准

近年来,大语言模型已成为推动人工智能技术进步的关键动力之一,而基于Transformer架构的大语言模型在各项自然语言处理任务中表现卓越,涵盖文本生成、情感分析、问答系统、知识推理等诸多领域。

然而,这些模型在实际领域应用中仍面临着诸多挑战和局限,包括模型的泛化性、鲁棒性、可解释性等。因此在不同领域应用中如何探测大语言模型的能力边界并设计增强策略是大语言模型落地实践的重要挑战。

论坛将深入探讨大语言模型泛化能力边界,针对新领域或未见数据的鲁棒性,模型生成内容的可解释性,以及检索增强生成、大小模型协调、参数高效微调等多种不同的增强策略。论坛邀请了来自国内大语言模型研发的一线学者和技术专家,共同探讨大语言模型能力边界探测与增强关键技术、前沿进展和未来方向,期待激发与会者对大语言模型潜能与局限的深入思考,共同推动大语言模型技术的发展与应用。

论坛日程

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

论坛主席及嘉宾介绍

论坛主席

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

李洋

CCF YOCSEF哈尔滨主席,东北林业大学计算机与控制工程学院副院长、副教授,博士生导师

简介:主要研究方向为自然语言处理、人工智能与生物信息处理。主持国家自然科学基金面上项目、青年项目,黑龙江省自然科学基金优秀青年项目、面上项目等多个国家级和省部级项目。在人工智能领域顶级国际期刊和会议发表论文30余篇,获得国家发明专利6项。担任中国计算机学会生物信息学专委会执行委员、中国中文信息学会青年工作委员会委员、社会媒体处理专委会委员,CCF YOCSEF哈尔滨24-25主席。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

吴天星

CCF YOCSEF南京主席,东南大学计算机科学与工程学院副教授、博士生导师

简介:主要研究方向为知识图谱、大语言模型、人工智能应用。曾获江苏省计算机学会优秀博士学位论文奖,CCKS 2022、WISA 2024最佳论文奖。主持国家自然科学基金面上项目、青年项目,江苏省“双创博士”项目等纵横向课题多项。在人工智能领域内国际期刊及会议发表论文50余篇,6项国家发明专利获得授权。担任中国中文信息学会语言与知识计算专委会委员,中国计算机学会信息系统专委会执行委员,CCF YOCSEF南京24-25主席。

论坛讲者

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

秦兵

哈尔滨工业大学计算学部长聘教授

简介:哈尔滨工业大学自然语言处理研究所副所长。国家重点研发课题、国家自然科学基金重点项目负责人。科技部科技创新2030-“新一代人工智能”重大项目管理专家组专家,中国中文信息学会常务理事/情感计算专委会主任,黑龙江省计算机学会自然语言处理专委会主任。入选“福布斯中国2020科技女性榜”。

报告题目:大模型自我感知能力探索

摘要:近年来,随着大语言模型的出现,知识的调用方式发生了重大转变。大语言模型以其广泛的知识存储能力,成为继数据库、搜索引擎之后全新的知识调用方式。但是这些模型的内在知识仍具有局限性,了解和提升大模型对知识边界的感知能力,对其智能化的进阶至关重要。本报告围绕“知识象限”探讨大模型的知识边界。主要包括:大模型是否真正具备对其知识边界的自我感知能力?如何有效提升这种自我感知能力?如何进一步拓展大模型的知识边界?这些问题的探讨将有助于深入理解大模型内在的知识机制。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

漆桂林

东南大学计算机与软件工程学院教授、东南大学认知智能研究所所长

简介:OpenKG发起人之一、中国中文信息学会语言与知识计算专业委员会副主任、中国科学技术情报学会知识组织专业委员会副主任和江苏省人工智能学会知识工程与智能服务专委会副主任、国际期刊Journal of Data Intelligence 主编、国际期刊 Journal of Web Semantics 副主编和 Semantic Web Journal 编委、Journal of Big Data Research的编委、爱思唯尔(Elsevier)的数据管理顾问委员会顾问、情报工程期刊编委。

报告题目:从知识工程视角集成知识图谱与大语言模型

摘要:知识图谱被认为是新一代的知识工程并且已经广泛用于许多工业应用中。然而,建设和维护知识图依赖于专家,阻碍了基于知识图谱的产品快速复制。ChatGPT等大语言模型作为通用人工智能取得了巨大成功,其可以被认为是知识库,支持问答等知识服务。报告首先介绍知识图和大语言模型相互作用的工作,包括语言模型如何支持本体提取、知识图谱构建、知识对齐和知识推理,还包括知识图如何支持大语言模型的模型训练和微调、知识编辑、知识融合。其次探讨从知识工程视角集成知识图谱和大语言模型的知识服务平台。最后介绍新一代知识服务平台的领域应用。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

王昊奋

同济大学特聘研究员

简介:长期在一线人工智能公司担任CTO之职。他是全球最大的中文开放知识图谱联盟OpenKG发起人之一。他负责参与多项国家级AI相关项目,发表100余篇AI领域高水平论文,被引用次数达到4100余次,H-index达到30。他构建了全球首个可交互养成的虚拟偶像—“琥珀·虚颜”;所构建的智能客服机器人已累计服务用户超过10亿人次。目前,他担任中国计算机学会术语工委副主任,自然语言处理专委秘书长,信息系统专委常委,智能机器人专委会执委;中国中文信息学会理事,大模型专委会指导委员会委员,语言与知识计算专委会副秘书长;中国指挥控制学会大模型专委会常务委员;上海市计算机学会自然语言处理专委会副主任等社会职位。

报告题目:世界模型角度下知识增强大模型的融合创新与展望

摘要:世界模型和知识增强大模型正逐渐成为推动新一代人工智能技术创新的核心力量。本报告将介绍相关基本概念,通过分析前沿研究案例和最新技术发展趋势,给出世界模型角度下知识增强大模型在理解复杂物理世界机理、提升决策质量和加速知识获取过程中的关键作用,最后结合垂直领域的落地应用展望未来技术范式。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

东昱晓

CCF YOCSEF总部AC委员,清华大学计算机系副教授

简介:曾工作于脸书人工智能和微软总部研究院。研究方向为数据挖掘、图机器学习和基础模型,相关成果获ECML’23, WWW’22/19, WSDM’15最佳论文奖或提名,应用于十亿用户级社交网络和知识图谱。获2022年ACM SIGKDD Rising Star Award。

报告题目:理解与探索大模型能力涌现

摘要:基础大模型在意图感知、指令跟随、目标规划等方面展现出强大的泛化能力,为智能体的研究和应用提供了通用模型基座。报告将分享GLM模型能力提升研发过程中的探索,我们发现预训练损失可以比模型大小或计算量更好地预测语言模型的涌现能力,进而合理指导模型训练与能力提升。以GLM-4 All Tools智能体模型为列,其可实现自主理解用户意图,自动规划复杂指令,自由调用网页浏览器、代码解释器以及多模态模型等,以完成复杂任务。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

刘伟

小米AI实验室大模型算法负责人

简介:CCF YOSCEF总部学术委员,北京大学心理与认知科学学院硕士行业导师,清华大学机器学习课程答辩导师,微软小冰初创成员。研究方向为人机对话和大模型。有超10年的人机对话从业经历,主导和深度参与了微软小冰、小爱同学等业界具有影响力的人机对话产品研发。曾获23年小米百万美金技术大奖,24年CCF计算机应用创新技术一等奖,24年数博会优秀科技成果奖等,并有十数项专利和顶会论文。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

冯骁骋

哈尔滨工业大学人工智能学院副院长,中文信息处理黑龙江省重点实验室主任助理

简介:中文信息处理黑龙江省重点实验室主任助理。研究兴趣包括自然语言处理、文本生成、机器翻译等。在多个CCF A/B类国际会议及期刊发表论文40余篇。担任NIPS、ICML、AAAI、IJCAI、ACL等国际会议程序委员会高级/普通成员;兼任鹏城实验室双聘学者、中国中文信息学会青年工作委员会副主任、大模型与生成专委会副秘书长、2023-2024中国计算机协会YOCSEF哈尔滨分论坛主席等。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

张宁豫

浙江大学智能科学与工业软件所副所长

简介:智能科学与工业软件所副所长,入选副省级市高层次人才引进计划,启真优秀青年学者,担任CCF计算机术语审定委员会委员、信息系统专委执行委员,中国中文信息学会青工委委员、语言与知识计算专委委员、情感计算专业委员会执行委员、大模型大搜索与生成专委委员,ACM Transactions on Asian and Low-Resource Language Information Processing、Data Intelligence Associate Editor,ACL、EMMLP、ICLR领域主席,ARR Action Editor,IJCAI 高级程序委员,主要研究方向为自然语言处理、知识图谱等。

CNCC | 探索大语言模型的潜能与局限——大语言模型的能力边界在哪

田植良

国防科技大学助理研究员

简介:国防科技大学计算机学院某全国重点实验室技术骨干。致力于大模型、文本生成、隐私保护方面研究。发表NeurIPS、ACL、WWW、EMNLP等人工智能与自然语言处理会议发表论文三十余篇,其中一作或通讯论文二十余篇,获授权国家发明专利二十余项。获微软学者提名、百度最高奖、百度奖学金全球40强等奖励。曾担任ACL、EMNLP、NAACL领域主席,IJCAI高级程序委员等,中文信息学会青工委执行委员。入选中国科协青年托举人才工程。

关于CNCC2024

CNCC2024将于10月24-26日在浙江省东阳市横店镇举办,大会主题为“发展新质生产力,计算引领未来”。大会为期三天,包括18个特邀报告、3个大会论坛、138个专题论坛及34场专题活动和100余个展览。图灵奖获得者、两院院士、国内外顶尖学者、知名企业家在内的超过800位讲者在会上展望前沿趋势,分享创新成果。预计参会者超过万人。

继续阅读