MindSpore Transformers 1.5.0 安装报错求助!

您好,我正在容器中安装MindSpore Transformers 1.5.0 安装教程参考安装 | MindSpore Transformers 1.5.0 文档 | 昇思MindSpore社区 从源码编译,本地对应版本的MindSpore和CANN都正常安装且可以执行验证任务

MindSpore Transformers 1.5.0安装后,按照文档说明进行检验,此刻出现如下报错:

原因似乎是缺乏华为云上的一个组件moxing,但是我pip install moxing并未找到对应模块,也没有看到官方给出安装教程,请问这个问题如何解决,感谢!

用户您好,欢迎安装使用MindSpore Transformers,已经收到上述问题,会尽快解答~

应该在配置文件里可以把华为云的copy操作关掉,就不会调用这个库了,在非华为云环境不需要用这个库

mindformers/mindformers/tools/cloud_adapter/cloud_adapter.py

if check_in_modelarts():
   import moxing as mox

def check_in_modelarts():
   """Check if the training is on modelarts.

   Returns:
       (bool): If it is True, it means ModelArts environment.
   """
   # 'KUBERNETES_PORT' in os.environ or \
   return 'MA_LOG_DIR' in os.environ or \
       'MA_JOB_DIR' in os.environ or \
       'MA_LOCAL_LOG_PATH' in os.environ or \
       'S3_ACCESS_KEY_ID' in os.environ or \
       'S3_SECRET_ACCESS_KEY' in os.environ or \
       'BATCH_GROUP_NAME' in os.environ or \
       'MA_LOCAL_LOG_PATH' in os.environ

import moxing是有条件的,
看下环境变量里面是不是存在上面那些.

好的,我check了一下,发现MA_LOG_DIRMA_JOB_DIR被设置了,目前临时性的在工作终端上执行

unset MA_LOG_DIR
unset MA_JOB_DIR

然后问题解决,按照原文档进行检验后可以通过,感谢!

此话题已在最后回复的 60 分钟后被自动关闭。不再允许新回复。