模型里面含有ATan算子导致mindspore不能把ckpt模型转化为onnx,有没有等效的办法?

这个是我的源码,如果换成ASin算子,还是不行,如果用数学公式替换,误差太大,有没有别的等效办法?

这是错误细节:

Traceback (most recent call last):
File “/mnt/c/Users/33635/Desktop/DWPCNNFusion/onnx.py”, line 41, in
main()
File “/mnt/c/Users/33635/Desktop/DWPCNNFusion/onnx.py”, line 37, in main
export(net, input_ir, input_vis, file_name=‘fusion_model.onnx’, file_format=‘ONNX’)
File “/home/coke/.local/lib/python3.10/site-packages/mindspore/train/serialization.py”, line 2071, in export
_export(net, file_name, file_format, *inputs, **kwargs)
File “/home/coke/.local/lib/python3.10/site-packages/mindspore/train/serialization.py”, line 2126, in _export
_save_onnx(net, file_name, *inputs, **kwargs)
File “/home/coke/.local/lib/python3.10/site-packages/mindspore/train/serialization.py”, line 2183, in _save_onnx
onnx_stream = _executor._get_func_graph_proto(net, graph_id)
File “/home/coke/.local/lib/python3.10/site-packages/mindspore/common/api.py”, line 2266, in _get_func_graph_proto
return self._graph_executor.get_func_graph_proto(exec_id, ir_type, incremental)
RuntimeError: Can not find key Asin in convert map. Exporting Asin operator is not yet supported.

这个是mindspore 训练脚本,导出onnx模型?

这个导出onnx模型是为了使用MindSpore Lite推理框架进行部署吗?如果是为了使用MindSpore Lite进行部署,可以直接使用mindspore训练脚本导出Mindir,mindspore支持导出mindir模型应该更方便,可以直接通过MindSpore Lite加载并推理

我想把我训练的ckpt模型转化成om模型然后部署到昇腾开发板上,按您这样说,是不是转化成mindir文件更加方便呢

如果你只是想部署到昇腾的开发板的话,可以直接通过mindspore训练的脚本导出mindir模型,然后通过mindspore lite的转换工具,转换成mindspore lite格式的mindir(converter转换工具的使用方式可以参考mindspore lite官网教程),然后通过mindspore lite昇腾后端版本包进行部署

既然可以直接用mindspore lite推理框架进行部署,想问问您为啥这个昇腾开发板上面的模型全都是om类型的呢

因为昇腾开发板基本采用了 AscendCL接口来进行推理,所以都是om格式.

此话题已在最后回复的 60 分钟后被自动关闭。不再允许新回复。