求助,关了use_parallel还是报错Distributed communication is not initialized

我是单卡单机跑模型的训练和微调,use_parallel设置成False而且各种并行都设成了1,但总是报Distributed communication is not initialized,到底是什么问题?

这个问题我们在解决中,目前可以通过如下命令尝试拉起任务

msrun --bind_core=True --worker_num=1 --local_worker_num=1 --master_port=7118 --log_dir=output/msrun_log --join=True --cluster_time_out=300 run_mindformer.py --config "${CONFIG}"

用户您好,MindSpore支撑人已经分析并给出了问题的原因,由于较长时间未看到您采纳回答,这里版主将进行采纳回答的结帖操作,如果还其他疑问请发新帖子提问,谢谢支持~

此话题已在最后回复的 60 分钟后被自动关闭。不再允许新回复。