【贪心科技】大模型微调实战营-应用篇 – 带源码课件,为你提供从基础到进阶的全面学习路径。课程内容涵盖大模型介绍、Transformer原理、分布式计算、Flash Attention等前沿技术。每周一次的直播课程,带你深入理解大模型微调的核心概念和技术细节,并通过实际案例和代码示例进行实战演练。
资源亮点
- 详细讲解大模型的发展历程及应用场景
- 深入剖析Transformer架构及其在自然语言处理中的应用
- 系统介绍Lora微调、量化方法及多GPU并行计算技术
- 探索Alpaca、AdaLoRA、QLoRA等先进微调技术
- 强化学习入门及Optimal Policy、Monte Carlo方法介绍
部分精选内容
- 大模型爆发式发展.mp4
- Transformer的应用.mp4
- Self-Attention.mp4
- Alpaca.mp4
- AdaLoRA.mp4
- QLoRA.mp4
- Flash Attention.mp4
- Lora微调-从零实现Lora到Roberta.mp4
- llama介绍&运行&量化&部署&微调01.mp4
- Optimal Policy.mp4
适用人群
- 机器学习工程师
- 数据科学家
- 自然语言处理研究人员
- 计算机科学专业学生
- 对大模型微调感兴趣的开发者
为什么选择这份资源
- 系统性:从基础到进阶,全面覆盖大模型微调的关键知识点
- 实战性:结合大量实战案例和代码示例,帮助你快速掌握技能
- 前沿性:紧跟最新技术趋势,讲解当前最热门的大模型微调技术
- 权威性:由业内资深专家授课,确保内容的准确性和实用性
加入我们,开启你的大模型微调之旅!立即下载,让这份资源成为你技术提升的强力助推器!
课程大纲
注:由于大模型技术迭代迅速,课程大纲可能会根据技术的迭代而动态调整,加入最新的知识,请以最终上课时的课程大纲和内容为准。
第一阶段 · 大模型基础
- 课程介绍与目标
- 学习安排与课程结构
- 学员参与要求
- 课程项目与技术概览
- 推荐工具和开源资源
- 大模型的概念与历史发展
- 关键技术和算法基础
- 数据准备与预处理
- 预训练、指令微调、对齐
- 模型评估以及能力分析
- 微调与全量训练的区别
- 微调在不同领域的应用案例
- 选择微调任务和数据
- 微调的效果评估方法
- 微调项目的规划与管理
- Transformer模型的基础架构
- Self-Attention机制的工作原理
- Transformer在NLP任务中的应用
- Transformer模型的变种与发展
- 使用Transformer模型的实用技巧
- Encoder和Decoder介绍
- 常见的中英开源大模型介绍
- 模型选择标准与评估
- 开源模型的获取与使用
- 社区支持与资源分享
- 开源大模型发展方向
- Huggingface介绍
- 本地下载开源模型
- 理解HF相应的库以及导入大模型
- 模型封装以及部署
- 性能优化与成本控制
第二阶段 · 大模型指令微调
- 指令微调的概念与应用价值
- 指令集设计与实现
- 微调流程与实践技巧
- 性能评估与优化策略
- 指令微调的挑战与解决方案
- LoRA微调的方法
- 实施LoRA微调的步骤
- LoRA微调在实际项目中的应用
- 性能评估与调优技巧
- LoRA微调的局限与未来展望
- Alpaca项目介绍
- 指令数据的理解
- LoRA微调的实施与调优
- 项目评估与效果分析
- 经验总结与案例分享
- 为什么需要大模型压缩
- 模型压缩的方法与技术
- 压缩对模型性能的影响
- 压缩模型的常见方法
- 模型服务化的最佳实践
- QLoRA微调技术介绍
- 微调策略与实施过程
- 应用QLoRA的案例
- QLoRA微调的性能调优
- 面临的问题与解决方法
- 设计QLoRA微调方案
- 准备数据与环境配置
- 开源模型选择
- 执行微调与性能监控
- 项目经验分享与讨论
- DeepSpeed框架概述
- 配置与环境搭建
- 在大模型训练中使用DeepSpeed
- 分布式训练介绍
- 框架背后技术实现
- DeepSpeed参数理解
- 实战案例与经验分享
- Megatron-LM框架介绍
- 框架安装与配置指南
- 应用Megatron-LM进行模型训练
- 框架背后技术实现
- Megatron-LM参数理解
- 实战案例与经验分享
- 为什么需要Flash Attention
- GPU计算背景知识
- Flash Attention技术背后
- 在大模型中应用Flash Attention
- 实际部署与应用案例
- 微调模型性能测试的重要性
- Benchmark工具与方法介绍
- 执行Benchmark的步骤与技巧
- 结果分析与解读
- Benchmark设计与业务场景
- 结合QLoRA和Flash Attention的策略
- 微调与部署的一体化流程
- 项目实施的关键步骤
- 成果评估与性能优化
- 经验分享与问题解决
第三阶段 · 常用的开源模型微调
- 开源模型的概述
- 常见的开源模型分类
- 选择开源模型的考量因素
- 开源模型的获取和使用指南
- 维护和贡献开源模型的最佳实践
- ChatGLM模型家族介绍
- ChatGLM1到ChatGLM3迭代
- ChatGLM的私有化部署
- ChatGLM的特色
- 微调ChatGLM模型的步骤和技巧
- 微调案例分享
- 理解需求以及技术方案设计
- 医疗指令数据的搜集
- 医疗Benchmark的获取和整理
- 微调ChatGLM+LoRA模型
- 微调案例分享
- Qwen和YI模型家族概述
- 两个模型家族的迭代
- Qwen和YI大模型的私有化部署
- 两个大模型家族的特色
- 微调Qwen和YI模型的实践指南
- 微调案例分享
- LLaMA模型家族特点
- LLaMA大模型的迭代和架构变化
- LLaMA大模型的私有化部署
- 微调LLaMA模型的方法和建议
- LLaMA模型微调的案例分析
- 微调案例分享
- Mistral和Phi模型家族简介
- Mistral和Phi在多语言中的应用
- 两大模型家族的特色
- 量大模型家族的私有化部署
- 微调Mistral和Phi模型的流程
- 微调案例分享
- MoE(Mixture of Experts)模型概念
- MoE模型在大规模数据处理中的优势
- 微调MoE模型的关键点
- MoE模型的应用案例
- MoE模型的扩展性和可维护性问题
- Mistral 8x7b
- 微调案例分享
- 理解需求以及技术方案设计
- 智能客服指令数据收集
- Benchmark的获取和整理
- 微调Mistra 8x7b+QLoRA模型
- 模型评估以及验收报告制作
- Baichuan中文大模型
- Falcon模型家族
- Bloom模型介绍
- 不同领域开源模型的应用实例
- 微调这些开源模型的技术指导
- 评估开源模型的关键标准
- 匹配项目需求和模型特性
- 实践中选择开源模型的经验分享
- 开源模型使用中的常见陷阱
- 社区和资源的重要性
第四阶段 · 大模型对齐
- 大模型对齐的重要性和应用场景
- 基本对齐技术和方法概述
- 对齐过程中的数据处理和预处理
- 模型对齐的评估指标
- 大模型对齐的挑战和策略
- 开源数据集的重要性和来源
- 选择和处理对齐用的开源数据
- 开源数据在模型对齐中的应用
- 数据隐私和伦理考量
- 维护和更新开源数据集
- RLHF(强化学习从人类反馈)技术介绍
- RLHF在模型对齐中的应用案例
- 实施RLHF技术的步骤
- RLHF技术的效果评估
- 解决RLHF应用中的问题
- RLHF实战案例分析
- DPO(Direct Preference Optimization)概念
- DPO在优化模型对齐中的作用
- 实现DPO的关键技术点
- DPO应用的案例和效果分析
- DPO技术的挑战和前景
- DPO实战案例分享
- 需求分析以及技术方案设计
- 数据收集和预处理
- 训练Reward Model
- 训练RLHF完整微调
- 项目的评估和优化
- 需求分析以及技术方案设计
- 对齐数据的准备和处理
- 执行DPO模型对齐流程
- 对齐效果的评估和调整
- 项目中遇到的挑战
- 当前大模型对齐技术的发展趋势
- 模型对齐在大模型中的真正价值
- 对齐在工程上挑战
- 模型对齐技术的伦理和社会影响
- 资源推荐和学习路径
第五阶段 · 垂直领域大模型应用
- 垂直领域的研发符合中国现状
- 垂直领域大模型研发pipeline
- 微调大模型的基本方法和流程
- 选择合适的微调策略
- 微调中的性能优化技巧
- 微调项目的评估和调整
- 智能问诊领域的应用场景和需求
- 大模型能力维度设计
- 领域内benchmark设计
- 快速测试开源模型能力并选择合适的模型
- 微调模型以适应医疗数据
- 模型部署以及RAG设计
- 金融领域通用大模型需求分析
- 金融领域大模型benchmark
- XuanYuan开源项目剖析
- 金融领域大模型案例解读
- 微调模型在金融Benchmark上的评估
- 金融领域中的未来潜在落地场景
- 教育领域的大模型应用场景和需求
- 微调大模型进行个性化学习支持
- EduChat开源项目剖析
- 指令数据和对齐数据的整理
- Benchmark以及大模型评估
- 教育领域中的未来潜在落地场景
- 课程学习要点回顾
- 项目成果分享和评估
- 学习心得和经验交流
- 未来发展趋势和学习路径