|
MindSpore分布式并行报错The strategy is XXX, shape XXX cannot be divisible by strategy value XXX
|
|
0
|
11
|
2025 年9 月 25 日
|
|
MindSpore分布式8节点报错Call GE RunGraphWithStreamAsync Failed, ret is: 4294967295
|
|
0
|
17
|
2025 年9 月 24 日
|
|
MindSpore+MindFormer-r.1.2.0微调qwen1.5 报错
|
|
1
|
40
|
2025 年8 月 3 日
|
|
使用MindSpore的get_auto_parallel_context("device_num")识别设备信息错误
|
|
0
|
22
|
2025 年7 月 30 日
|
|
【案例】多机训练报错:import torch_npu._C ImportError: libascend_hal.so: cannot open shared object file: No such file or directory
|
|
0
|
40
|
2025 年7 月 30 日
|
|
MindSpore并行模式配置报错解决:Parallel mode dose not support **
|
|
0
|
20
|
2025 年7 月 25 日
|
|
MindSpoer报错:The strategy is ((6, 4), (4,6)), the value of stategy must be the power of 2, but get 6.
|
|
0
|
18
|
2025 年7 月 25 日
|
|
docker下运行分布式代码报nccl错误:connect returned Connection timed out,成功解决
|
|
0
|
39
|
2025 年7 月 25 日
|
|
Ascend多卡训练报错davinci_model : load task fail, return ret xxx
|
|
0
|
26
|
2025 年7 月 25 日
|
|
MindSpore权重转换全解析:基于Safetensors格式的高效实现
|
|
0
|
124
|
2025 年6 月 28 日
|
|
基于MindSpore Layout推导各卡上的Tensor分片(图解法)
|
|
0
|
88
|
2025 年6 月 19 日
|
|
基于MindSpore Layout推导各卡上的Tensor分片(列表法)
|
|
0
|
97
|
2025 年6 月 19 日
|