加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

学术交流|自然语言处理与大模型研讨会

(2025-01-03 09:10:30)
学术交流 | 自然语言处理与大模型研讨会
学术交流|自然语言处理与大模型研讨会
信息来源:     发布时间:2024-07-03
研讨会基本信息:         自然语言处理与大模型研讨会         时间:2024年7月8日(周一)13:30-18:00         地点:北京大学镜春园 79 号甲多功能教室 研讨会简介: 自然语言处理与大模型研讨会将于2024年7月8日在北京大学举行,聚焦于自然语言处理,大模型的机制,代码大
模型以及医学大模型等方向的前沿研究。 研讨会是由北京大学人工智能研究院与北京大学王选计算机研究所共同支持的学术交流活动,邀请自然语言处理
和大模型领域的多位专家做学术报告并组织Panel讨论环节。 主持人:
学术交流|自然语言处理与大模型研讨会

学术交流|自然语言处理与大模型研讨会
议程安排:         13:30 - 13:35    赵东岩研究员致开幕词         13:35 - 14:05    大语言模型时代的模型融合:合并、集成与合作                                   报告人:张家俊 中科院自动化所         14:05 - 14:35    大模型知识机制探索                                   报告人:韩先培 中科院软件所         14:35 - 15:05    知识编辑问题、方法与应用                                   报告人:张宁豫 浙江大学         15:05 - 15:30    茶歇         15:30 - 16:00    特邀嘉宾报告         16:00 - 16:30    基于大模型的软件自动化                                             报告人:李戈 北京大学         16:30 - 17:00    从深度学习到大模型,医学 NLP 上的一些尝试                                 报告人:吴贤 腾讯优图实验室         17:00 - 18:00    Panel Disscussion                                             主持人:张辉帅 北京大学 研讨会嘉宾:

学术交流|自然语言处理与大模型研讨会
题目:大语言模型时代的模型融合:合并、集成与合作 摘要: 随着模型参数与训练数据的不断增长,大语言模型展现出越来越强、越来越通用的能力(Scaling Law),但是单
个大语言模型总是存在一些能力盲区,而不同模型之间往往优势互补,因此如何融合多个大语言模型集成各自优势
成为一个热点研究问题。该报告将从模型合并、模型集成与模型合作三个角度总结大语言模型时代的模型融合方法
,并重点介绍模型集成与模型合作两类方法中研究组的最新研究工作。 个人简介: 张家俊,中国科学院自动化研究所研究员、博士生导师,中国科学院大学岗位教授。主要研究方向为自然语言处
理、语言模型及应用,获得国家优秀青年科学基金资助,入选中国科协首届青年人才托举工程、中国科学院青年
创新促进会优秀会员和北京智源青年科学家,主持科技创新2030—“新一代人工智能”重大项目。发表CCF-A/B
类论文100余篇,出版学术专著2部、译著1部,获得北京市科学技术奖一等奖等。担任中国中文信息学会理事、机
器翻译专委会副主任和第五届青年工作委员会主任。多次担任ACL/EMNLP/COLING的(资深)领域主席,担任Arti-
ficial Intelligence、IEEE/ACM T-ASLP和《自动化学报》等期刊的编委。 报告人:韩先培
学术交流|自然语言处理与大模型研讨会

题目:大模型知识机制探索 摘要: 近年来,大模型展现出了强大的能力,但其背后机制却仍旧不明,极大制约了大模型的改进和应用。本报告介绍
课题组在大模型知识机制方面的一些探索,如知识特性对大模型的影响和大模型对外在知识生态的影响,同时对
大模型与知识的关系进行探讨。 个人简介: 韩先培,中科院软件所研究员及中文信息处理实验室副主任,主要研究方向为自然语言理解、大模型及知识图谱。
承担中科院战略先导、科技创新2030课题、国家重点研发专项等十余项课题。在ACL、SIGIR、IJCAI等重要国际
会议发表论文60余篇。入选国家优青、中国科协青年人才托举计划及北京智源青年科学家,担任中国中文信息学
会理事及语言与知识计算专业委员会副主任。相关成果获中国中文信息学会汉王青年创新奖一等奖及科学技术奖
一等奖。
学术交流|自然语言处理与大模型研讨会

题目:知识编辑问题、方法与应用
摘要: 掌握知识一直是人工智能系统发展的核心追求。在这方面,符号知识图谱和参数化语言模型都是用来表示和处理知
识的手段。知识编辑旨在通过对符号或参数知识的新增、修改和擦除等操作处理知识谬误问题。本次报告将深入讨
论知识编辑问题,并以参数知识更新为例介绍知识编辑的方法和应用。 个人简介: 张宁豫,浙江大学副教授,浙江大学启真优秀青年学者,在高水平国际学术期刊和会议上发表多篇论文,6篇入选
Paper Digest高影响力论文,1篇被选为Nature子刊Featured Articles。主持国家自然科学基金、计算机学会、
人工智能学会多个项目,获浙江省科技进步二等奖,IJCKG最佳论文/提名2次,CCKS最佳论文奖1次, 担任ACL、
EMNLP领域主席、ARR Action Editor、IJCAI 高级程序委员,主持开发知识编辑工具EasyEdit (1.6k)。


学术交流|自然语言处理与大模型研讨会
题目:基于大模型的软件自动化
摘要:大模型技术对软件开发技术产生了深刻影响。当前大模型的软件开发辅助能力到底如何?未来的软件开发图景将会
发生哪些变化?北京大学程序理解与生成研究团队,是基于深度学习的程序理解与生成领域的早期开拓和持续贡献
团队。讲者以自身研究经历为背景,对基于大模型的程序理解与生成方法的研究历程和发展状态进行简要概述,并
对基于大模型的软件开发自动化的影响进行探讨。

个人简介: 李戈,北京大学计算机学院长聘教授,教育部长江学者(博雅特聘教授),博士生导师,软件与微电子学院软件工
程与数据技术系主任,中国计算机学会(CCF)软件工程专委会副主任,CCF系统软件专业委员会常委,CCF大模
型论坛常委。研究方向:智能化软件开发技术、智能软件系统关键技术、深度学习。国际上 “基于深度学习的程
序理解与生成”的先驱性研究者,多项成果被国际学者认为是“首创性成果”并被广泛引用。所带领的研究团队
在多项研究任务中一直保持着国际领先结果,是该领域国际知名的研究团队。
题目:从深度学习到大模型,医学NLP上的一些尝试
学术交流|自然语言处理与大模型研讨会

摘要:
在医学领域,几乎所有的通用 NLP 任务都可以找到相应的实际应用场景,例如医患对话、医学信息提取、疾病诊
断、药物推荐以及报告生成等。目前,已有大量的研究将 LLM应用于医学领域,部分大型模型甚至已经高分通过
了医师资格考试。然而,仍有许多问题需要进一步研究。本次分享旨在深度探索大模型技术在医学领域的研究和
应用问题,包括训练效率问题,包括幻觉问题,包含在临床场景中实际遇到的问题等。 个人简介: 吴贤博士是腾讯优图实验室天衍研究中心经理,带领医疗自然语言理解和医学影像团队。吴博士的主要研究兴趣
包括自然语言理解,深度机器学习,辅助诊疗系统等。吴博士在Nature子刊,T-PAMI, NeurIPS, ACL, CVPR等
国际顶级杂志会议上发表文章一百余篇,被引用超过4300次,有近50项美国和中国专利。吴博士获得过华夏医学
科技一等奖,在国际MSCOCO评测中获得过第一名,也在ICDM知识图谱评测中获得了第二名的成绩。在加入腾
讯之前,吴博士先后供职于IBM研究院和微软人工智能和研究部门。吴博士在上海交通大学获得计算机博士学
位。


0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有