|
MindSpore分布式训练Qwen-7B时崩溃Graph execution failed.
|
|
1
|
18
|
2026 年3 月 1 日
|
|
MindSpore梯度计算报错AttributeError: module ‘mindspore’ has no attribute ‘value_and_grad’分析及解决
|
|
0
|
10
|
2026 年3 月 1 日
|
|
MindSpore模型推理时ValueError: shapes (32,10) and (32,10,1,1) not aligned分析和解决
|
|
0
|
10
|
2026 年3 月 1 日
|
|
MindSpore分布式训练Qwen-7B时Graph execution failed的解决
|
|
0
|
9
|
2026 年3 月 1 日
|
|
MindSpore Lite windows上进行模型转换时,配置环境打开converter_lite出现找不到libssp-0.dll,已经安装mingw64配置好环境变量了,如何解决呢?
|
|
3
|
58
|
2026 年2 月 28 日
|
|
模型里面含有ATan算子导致mindspore不能把ckpt模型转化为onnx
|
|
1
|
20
|
2026 年1 月 30 日
|
|
基于MindSpore和MindSpore NLP的通用图像分割推理任务
|
|
0
|
41
|
2026 年2 月 26 日
|
|
MindSpore社区活动:零样本图像分割推理任务
|
|
1
|
32
|
2026 年2 月 26 日
|
|
端侧模型转换 windows 配环境报错
|
|
6
|
56
|
2026 年2 月 26 日
|
|
诚邀优秀的你参与“MindSpore+NanoDet”的模型适配!
|
|
1
|
14
|
2026 年2 月 25 日
|
|
[DSP案例] RPC 应用的移植
|
|
6
|
80
|
2026 年2 月 24 日
|
|
个人电脑上拉取指定版本的镜像为什么打包不了?
|
|
7
|
71
|
2026 年2 月 13 日
|
|
MindSpore框架目前在SAM系列模型的支持情况如何?
|
|
2
|
43
|
2026 年2 月 14 日
|
|
MindSpore论坛报错活动第四十一期
|
|
0
|
36
|
2026 年2 月 11 日
|
|
将.ckpt模型转换为.om格式,运行转换脚本后报错Failed to allocate memory for tensor of shape [1, 64, 160, 160]
|
|
0
|
11
|
2026 年2 月 11 日
|
|
onnx转ms,鸿蒙应用使用MindSpore Lite进行模型推理报错!不清楚哪里的问题。
|
|
2
|
62
|
2026 年2 月 9 日
|
|
安装mindspore ,出现No module name 'te‘ 官方文档说要卸载te topi hccl。导入 mindspore 又出现错误
|
|
4
|
33
|
2026 年2 月 9 日
|
|
【DSP案例】在银河飞腾dsp下部署rpc应用的两种方式
|
|
0
|
30
|
2026 年1 月 29 日
|
|
根据官网最新的文档 安装 minspore 2.8 ,这到底是成功了还是没成功,有点奇怪
|
|
6
|
58
|
2026 年2 月 2 日
|
|
MindSpore Shard:深度解读算子级并行
|
|
0
|
43
|
2026 年1 月 31 日
|
|
模型里有ATan算子导致mindspore不能把ckpt模型转化为onnx
|
|
0
|
9
|
2026 年1 月 30 日
|
|
模型推理时TransData算子耗时多
|
|
1
|
19
|
2026 年1 月 30 日
|
|
模型推理时TransData算子耗时优化
|
|
0
|
13
|
2026 年1 月 30 日
|
|
MindSpore 2.2 模型加载报错Unsupported model version
|
|
1
|
21
|
2026 年1 月 30 日
|
|
MindSpore 2.2 模型加载报错Unsupported model version及解决
|
|
0
|
9
|
2026 年1 月 30 日
|
|
onnx算子精度是fp32,使用atc转换om后都变为fp16,精度降低了,如何保持原精度?
|
|
1
|
25
|
2026 年1 月 30 日
|
|
onnx算子精度是fp32,使用atc转换om后都变为fp16精度降低,保持原精度
|
|
0
|
9
|
2026 年1 月 30 日
|
|
MindSpore 分布式训练报错RuntimeError: HCCL AllReduce failed, device type of rank 0 is Ascend, rank 1 is CPU
|
|
1
|
17
|
2026 年1 月 30 日
|
|
MindSpore 分布式训练报错RuntimeError: HCCL AllReduce failed, device type of rank 0 is Ascend, rank 1 is CPU及解决
|
|
0
|
14
|
2026 年1 月 30 日
|
|
MindSpore中使用Graph模式运行网络,首次运行非常慢,且输入Shape改变就会重新编译
|
|
1
|
26
|
2026 年1 月 30 日
|