llama3.1-8b的lora微调,不开启权重转换会导致维度不匹配,开启了之后会报错找不到rank1的ckpt,但是strategy目录里面是全的

报错信息

The checkpoint file of rank1 is needed for converting rank1's checkpoint, but it is missing.

解决方案

此问题需要检查训练使用的yaml配置文件;
yaml配置文件中设置auto_trans_ckpt=False,enable_parallel_optimizer=False后,模型微调可以运行起来了。