密集项目:人工智能专题:AI大模型的训练原理与架构演进——以GPT-4、DeepSeek、LLaMA2等为例
开始日期: 2025-10-11
课时安排: 4周在线小组科研+2周论文指导
Prerequisites适合人群
适合年级 (Grade): 高中生/大学生
适合专业 (Major): 对人工智能、AI大模型、生成式AI、计算机科学、机器学习、自然语言处理等感兴趣的学生;建议具备编程或python基础(先导课)
Instructor Introduction导师介绍
H老师
香港科技大学(广州)副研究员
香港科技大学(广州)
H老师 副研究员 博士生导师
香港中文大学 访问学者
清华大学 博士
研究方向:可信大语言模型探究、大语言模型的蒸馏、加速以及垂类大语言模型的训练研发
H老师现任香港科技大学(广州)副研究员Associate Researcher。在数据挖掘和自然语言处理领域的顶级国际期刊和会议上发表了数十篇论文,涉及的会议包括KDD、ICLR、ACL和TKDE。曾担任ACL、EMNLP、NAACL和EACL等顶级自然语言处理会议的领域主席,以及ACL Rolling Review的执行编辑。
Program Background项目背景
大语言模型(Large Language Models, LLMs)作为人工智能领域的重要突破,正在深刻改变我们的生活和工作方式。从ChatGPT到国内外各类AI应用,LLM已成为必须了解的核心技术。本课程采用通俗易懂的方式讲解LLM的基本概念、工作原理、应用场景以及未来发展。课程通过理论讲解与实践相结合的方式,帮助学生掌握LLM应用开发能力和产品设计思维。
Program Description项目介绍
本课程采用"理论+实践"的双轨教学模式,结合实际案例分析、交互式演示和动手实践来加深理解。课程涵盖了从基础NLP概念到前沿LLM技术的完整知识体系,包括Transformer架构、预训练范式、提示工程、多模态融合、模型压缩与部署等核心内容。通过分析ChatGPT、GPT-4、文心一言、Claude等典型产品案例,帮助学生深入理解LLM的技术原理和商业价值。课程还将探讨LLM在教育、医疗、金融等垂直领域的创新应用,以及未来发展趋势。
Syllabus项目大纲
自然语言处理介绍:NLP发展历程与基础概念;词向量与词嵌入技术;深度学习框架介绍;分词、词性标注等基础任务;Case: ChatGPT交互设计分析
语言模型架构解析:统计语言模型基础;神经语言模型发展;Transformer核心组件;预训练模型发展历程;自注意力机制详解;Case: GPT系列架构演进
可信LLM:LLM安全性与隐私保护;事实性与知识注入;价值观对齐技术;偏见检测与缓解;审计与评估框架;Case: Claude安全机制
多模态LLM:多模态基础概念;视觉编码器原理;跨模态对齐技术;多模态预训练方法;视觉问答与描述;Case: GPT-4V技术分析
高效LLM:模型压缩技术;知识蒸馏方法;量化与剪枝策略;推理加速方案;分布式训练技术;Case: LLaMA2部署优化
项目答辩与点评:学生项目汇报与答辩、评价和指导
Program Outcome项目收获
4周【在线小组科研+全球就业力大师课】+2周论文指导,共126课时
1500字左右的项目报告
优秀学员获得主导师推荐信(8封网推)
项目结业证书
EI/CPCI/Scopus/ProQuest/Crossref/EBSCO或同等级别索引国际会议全文投递与发表指导或者CNKI检索的英文普刊全文投递与发表指导
下一篇:返回列表
直接添加小助手阿星