首页

首页

大语言模型背景及相关技术交流

讲座时间:2024320日,14:30

讲座地点:南实验楼203会议室

举办单位:统计与数据科学学院

主 讲 人:郑豪 副教授

讲座内容:

201712, Google BrainGoogle ResearchVaswani等撰写的具有重要影响的Attention Is All You Need一文发表,标志着Transformer的诞生。当前Transformer已成为大语言模型(LLM)中的核心组成部分,并衍生生出一系列优秀成果, ChatGPT等。本次报告简单介绍LLM的发展历史,相关技术比如Transformer、迁移学习、强化学习的相关概念,重点交流 Transformer 中的输入、输出,编码器、解码器,注意力机制,掩码等内容,并通过代码实例帮助理解相应的细节

主讲人简介:

郑豪,理学博士,毕业于北京交通大学。现任北京物资学院统计与数据科学学院副教授。受国家留学基金委资助作为访问学者到日本东北大学访学一年,并在日本筑波大学、日本长崎工业大学交流学习。主要研究方向组合设计与编码理论,主持完成国家自然科学基金青年基金一项,主持国家自然科学基金面上子课题一项。发表SCI论文8篇,中文论文2篇。

欢迎广大师生前来交流!