书生·浦语大模型实战营笔记-第四课

2024-02-12  本文已影响0人  银河星尘

课程内容

课程视频
课程文档

目录

image.png

Finetune 简介

image.png

大语言模型是在海量的文本内容上,已无监督或半监督的方式进行训练,从而使大语言模型拥有了各行各业的知识。
微调是使大语言模型在具体的使用场景或垂直领域内可以输出更好的回答。

image.png image.png

全参数微调、LoRA和QLoRA的比较


image.png

XTuner 介绍

🤓 傻瓜化: 以 配置文件 的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调。
🍃 轻量级: 对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB : 消费级显卡✅,colab✅


image.png image.png image.png image.png image.png image.png image.png image.png

增强并行性,充分利用GPU资源(大显存情况下)。

image.png

8GB 显卡玩转 LLM

image.png

Flash Attention加速算法,默认启用
DeepSpeed ZeRO优化算法,需手动开启

image.png image.png

显存占用情况

动手实战环节

上一篇 下一篇

猜你喜欢

热点阅读