- 微调LLMs:概述、方法和最佳实践(附天工Skywork-13B微调)
- 为什么要对大模型进行微调
- 什么时候需要LLM微调
- 微调的具体优势
- 定制化
- 个人与企业用户的差异
- 提高理解力
- 适应特定格式
- 增强推理能力
- 主要微调方法
- 1. 微调技术总览
- 全量微调 (Full Fine Tuning, FFT)
- 参数高效微调 (Parameter-Efficient Fine Tuning, PEFT)
- 2. 微调方法分类
- 有监督微调 (Supervised Fine Tuning, SFT)
- 基于人类反馈的强化学习 (Reinforcement Learning with Human Feedback, RLHF)
- 3. 参数高效微调技术分类
- 增加式方法
- 选择式方法
- 重新参数化方法
- 微调流程与最佳实践
- 微调应用实例
- 微调实践:天工 Skywork-13B微调指南
- 全量微调
- LoRA微调
微调LLMs:概述、方法和最佳实践(附天工Skywork-13B微调)
微调LLMs:概述、方法和最佳实践(附天工Skywork-13B微调)
2024年7月15日修改
作者:weAitrainee | AI进修生
附件不支持打印
加载失败,
Hello,大家好,我是Aitrainee,欢迎收看本期新文章,
从总体上看,大模型的训练可以分为四个关键阶段: 预训练、有监督微调、奖励建模和强化学习。
预训练阶段是最为耗时的部分,占据了整个训练流程的99%。这个阶段需要极高的计算能力和庞大的数据量,对大多数开发者来说,这一步的实现难度极大。
接下来的 三个阶段 ——有监督微调、奖励建模和强化学习——共同构成了微调过程。 这些阶段所需的资源较少,一般只需要几块GPU和几小时到几天的时间。
微调的核心目的是在已有预训练模型的基础上,通过调整模型参数,使其在特定任务上表现得更为出色。
为什么要对大模型进行微调
附件不支持打印
加载失败,