昇思学习营第七期-模型LoRA微调学习心得2

LoRA 通过冻结原始模型参数,在 Attention 层等模块引入低秩旁路结构,仅更新低秩矩阵,在减少参数量和开销的同时提高模型的性能。





转换为特定权重的方法保存特定数据类型的模型