昇思学习营第七期·昇腾开发板 学习打卡2

一、模型LoRA微调:

1、LoRA微调介绍

微调已经是模型落地的至关重要的手段。但面对成百上千的参数模型,全量微调意味着高成本与高资源消耗。LoRA也就成为一种高效、轻量、即插即用的微调利器。


LoRA 提出了一个创新的思路:只训练两个小矩阵 A 和 B,并将它们嵌入原有的线性层中。最大优势就是不动大模型的原始参数,而是通过“添加低秩扰动”进行模型适配来改变行为,即插即用、任务解耦、部署灵活。

2、LoRA 高效的原因:

① LoRA 只需训练少量参数(A 和 B)。例如:70B 模型约 7000M 参数,LoRA仅需训练约 70M 参数。就很好的减轻了训练负担。

② 内存十分友好。只训练 A、B 小矩阵,前向传播时计算量就大幅减少;反向传播时仅对小矩阵求梯度。

③ 即插即用:原始模型保持不变;多个 LoRA 模块可根据不同任务动态加载;便于模型管理、部署与复用。

3、LoRA 适用的场景

4、LoRA 和全参数微调对比

二、实操部分:

环境准备完毕,版本成功安装。

数据集加载成功,完成实例化。

数据成功处理。

参数成功配置。

训练参数和微调完成。