课程介绍
本课程包括大模型基础,大模型指令微调,常用的开源模型微调,大模型对齐,垂直领域大模型应用5个阶段,内容涵盖大模型微调应用场景,大模型基座,LoRA参数微调,模型压缩,QLoRA参数微调,DeepSpeed训练框架解析,Megatron-LM训练框架解析,Flash Attention技术应用,微调模型Benchmark,ChatGLM,LLaMA,Mistral,MoE,大模型对齐,RLHF,DPO,垂直领域大模型应用等前沿技术等全方位知识讲解,并结合8个实战项目,帮助同学们实现学以致用。
课程大纲
注:由于大模型技术迭代迅速,课程大纲可能会根据技术的迭代而动态调整,加入最新的知识,请以最终上课时的课程大纲和内容为准。
第一阶段 · 大模型基础
课程介绍与目标
学习安排与课程结构
学员参与要求
课程项目与技术概览
推荐工具和开源资源
大模型的概念与历史发展
关键技术和算法基础
数据准备与预处理
预训练、指令微调、对齐
模型评估以及能力分析
微调与全量训练的区别
微调在不同领域的应用案例
选择微调任务和数据
微调的效果评估方法
微调项目的规划与管理
Transformer模型的基础架构
Self-Attention机制的工作原理
Transformer在NLP任务中的应用
Transformer模型的变种与发展
使用Transformer模型的实用技巧
Encoder和Decoder介绍
常见的中英开源大模型介绍
模型选择标准与评估
开源模型的获取与使用
社区支持与资源分享
开源大模型发展方向
Huggingface介绍
本地下载开源模型
理解HF相应的库以及导入大模型
模型封装以及部署
性能优化与成本控制
第二阶段 · 大模型指令微调
指令微调的概念与应用价值
指令集设计与实现
微调流程与实践技巧
性能评估与优化策略
指令微调的挑战与解决方案
LoRA微调的方法
实施LoRA微调的步骤
LoRA微调在实际项目中的应用
性能评估与调优技巧
LoRA微调的局限与未来展望
Alpaca项目介绍
指令数据的理解
LoRA微调的实施与调优
项目评估与效果分析
经验总结与案例分享
为什么需要大模型压缩
模型压缩的方法与技术
压缩对模型性能的影响
压缩模型的常见方法
模型服务化的最佳实践
QLoRA微调技术介绍
微调策略与实施过程
应用QLoRA的案例
QLoRA微调的性能调优
面临的问题与解决方法
设计QLoRA微调方案
准备数据与环境配置
开源模型选择
执行微调与性能监控
项目经验分享与讨论
DeepSpeed框架概述
配置与环境搭建
在大模型训练中使用DeepSpeed
分布式训练介绍
框架背后技术实现
DeepSpeed参数理解
实战案例与经验分享
Megatron-LM框架介绍
框架安装与配置指南
应用Megatron-LM进行模型训练
框架背后技术实现
Megatron-LM参数理解
实战案例与经验分享
为什么需要Flash Attention
GPU计算背景知识
Flash Attention技术背后
在大模型中应用Flash Attention
实际部署与应用案例
微调模型性能测试的重要性
Benchmark工具与方法介绍
执行Benchmark的步骤与技巧
结果分析与解读
Benchmark设计与业务场景
结合QLoRA和Flash Attention的策略
微调与部署的一体化流程
项目实施的关键步骤
成果评估与性能优化
经验分享与问题解决
第三阶段 · 常用的开源模型微调
开源模型的概述
常见的开源模型分类
选择开源模型的考量因素
开源模型的获取和使用指南
维护和贡献开源模型的最佳实践
ChatGLM模型家族介绍
ChatGLM1到ChatGLM3迭代
ChatGLM的私有化部署
ChatGLM的特色
微调ChatGLM模型的步骤和技巧
微调案例分享
理解需求以及技术方案设计
医疗指令数据的搜集
医疗Benchmark的获取和整理
微调ChatGLM+LoRA模型
微调案例分享
Qwen和YI模型家族概述
两个模型家族的迭代
Qwen和YI大模型的私有化部署
两个大模型家族的特色
微调Qwen和YI模型的实践指南
微调案例分享
LLaMA模型家族特点
LLaMA大模型的迭代和架构变化
LLaMA大模型的私有化部署
微调LLaMA模型的方法和建议
LLaMA模型微调的案例分析
微调案例分享
Mistral和Phi模型家族简介
Mistral和Phi在多语言中的应用
两大模型家族的特色
量大模型家族的私有化部署
微调Mistral和Phi模型的流程
微调案例分享
MoE(Mixture of Experts)模型概念
MoE模型在大规模数据处理中的优势
微调MoE模型的关键点
MoE模型的应用案例
MoE模型的扩展性和可维护性问题
Mistral 8x7b
微调案例分享
理解需求以及技术方案设计
智能客服指令数据收集
Benchmark的获取和整理
微调Mistra 8x7b+QLoRA模型
模型评估以及验收报告制作
Baichuan中文大模型
Falcon模型家族
Bloom模型介绍
不同领域开源模型的应用实例
微调这些开源模型的技术指导
评估开源模型的关键标准
匹配项目需求和模型特性
实践中选择开源模型的经验分享
开源模型使用中的常见陷阱
社区和资源的重要性
第四阶段 · 大模型对齐
大模型对齐的重要性和应用场景
基本对齐技术和方法概述
对齐过程中的数据处理和预处理
模型对齐的评估指标
大模型对齐的挑战和策略
开源数据集的重要性和来源
选择和处理对齐用的开源数据
开源数据在模型对齐中的应用
数据隐私和伦理考量
维护和更新开源数据集
RLHF(强化学习从人类反馈)技术介绍
RLHF在模型对齐中的应用案例
实施RLHF技术的步骤
RLHF技术的效果评估
解决RLHF应用中的问题
RLHF实战案例分析
DPO(Direct Preference Optimization)概念
DPO在优化模型对齐中的作用
实现DPO的关键技术点
DPO应用的案例和效果分析
DPO技术的挑战和前景
DPO实战案例分享
需求分析以及技术方案设计
数据收集和预处理
训练Reward Model
训练RLHF完整微调
项目的评估和优化
需求分析以及技术方案设计
对齐数据的准备和处理
执行DPO模型对齐流程
对齐效果的评估和调整
项目中遇到的挑战
当前大模型对齐技术的发展趋势
模型对齐在大模型中的真正价值
对齐在工程上挑战
模型对齐技术的伦理和社会影响
资源推荐和学习路径
第五阶段 · 垂直领域大模型应用
垂直领域的研发符合中国现状
垂直领域大模型研发pipeline
微调大模型的基本方法和流程
选择合适的微调策略
微调中的性能优化技巧
微调项目的评估和调整
智能问诊领域的应用场景和需求
大模型能力维度设计
领域内benchmark设计
快速测试开源模型能力并选择合适的模型
微调模型以适应医疗数据
模型部署以及RAG设计
金融领域通用大模型需求分析
金融领域大模型benchmark
XuanYuan开源项目剖析
金融领域大模型案例解读
微调模型在金融Benchmark上的评估
金融领域中的未来潜在落地场景
教育领域的大模型应用场景和需求
微调大模型进行个性化学习支持
EduChat开源项目剖析
指令数据和对齐数据的整理
Benchmark以及大模型评估
教育领域中的未来潜在落地场景
课程学习要点回顾
项目成果分享和评估
学习心得和经验交流
未来发展趋势和学习路径
课程服务
11次直播讲解与演示(每周1次,每次3-3.5小时)
可反复观看课程视频
不超过25人的小学习群,保证每名学员的问题被快速解决
专属咨询顾问与教务老师全程伴学
认识一群拥有同样兴趣的人、相互交流、相互学习。
课程讲师及教研团队
适合人群
在职人士
在读学生
常见问题
1、是否有基础要求?
Python,或精通至少一门编程语言,知道如何用API调用GPT、以及使用提示工程。
2、学习这个课程对硬件有哪些要求?
需要显存30G以上的1张NVIDIA显卡或者GPU云服务器。
3、上课形式和课时量是怎样的呢?
共11次直播授课,每次直播课程时长大概3-3.5小时。直播的录播视频会在第二个工作日上传到学习平台方便大家回看,但为了更好的学习效果,建议各位学员提前预留好时间,准时参加直播。
4、课程回放视频的观看期限是多久?
本期课程视频永久有效,其中包含“学习期”和“结课期”两个阶段。 学习期:指我们为同学们提供直播授课的阶段。在此期间,学员可以观看课程回放视频,并享受相应的学习服务,比如课程群助教答疑等。 结课期:本课程最后一节直播课之日起一周后,即为结课期,课程回放视频永久有效。在此期间,学员可随时观看课程视频,但不再享受其他课程服务。
5、可以跟老师互动交流吗?
我们会建立课程学习群,群内可以互动交流。同时,大家还可以在直播授课期间向老师提问。
6、报名缴费后可以退款吗?
本课程第一节直播课起第7个自然日内,如果觉得课程不适合自己,可无条件申请退款,超出7个自然日,就不再办理退款啦。退款流程预计为10个工作日。
7、如何开发票,签合同?
我们可以为学员开具正规的发票和合同。请联系报名老师。
8、价格说明
价格为商品或服务的参考价,并非原价,该价格仅供参考,具体成交价格根据商品或服务参加优惠活动,或拼团等不同情形发生变化,最终实际成交价格以订单结算页价格为准。