【MindSpore易点通·漫游世界】在Jetson AGX Orin上源码编译安装MindSpore 1.8.0 GPU版

下载mindspore r1.8分支源码:

git clone  http://gitee.com/mindspore/mindspore.git -b r1.8

修改 mindspore/scripts/build/build_mindspore.sh:

在Xoff那一行增加 -DENABLE_GITEE=ON 强制使用gitee

因为gcc7.3.0好像被破坏了,所以重新源码编译下:

cd /home/zhanghui

ln -s /home1/zhanghui/gcc-7.3.0

cd /home1/zhanghui/gcc-7.3.0

make -j12

sudo make install

cd /usr/bin

sudo rm g++

sudo rm gcc

sudo ln -s /usr/local/bin/g++ g++

sudo ln -s /usr/local/bin/gcc gcc

cd

gcc --version

g++ --version

开始正式编译:

cd /home1/zhanghui/mindspore

./build.sh -e gpu -j12

成功完成编译。

cd output

可以看到生成好的whl

创建conda环境:

conda create -n mindspore1.8 python=3.9

conda activate mindspore1.8

安装已编译的whl

pip install ./mindspore_gpu-1.8.0-cp39-cp39-linux_aarch64.whl -i https://pypi.tuna.tsinghua.edu.cn/simple

python -c "import mindspore;mindspore.run_check()"

这个很奇怪的现象又出现了。

在conda环境中,报错:ModuleNotFoundError: No module named 'packaging'

退出conda环境:conda deactivate

重新 python -c "import mindspore;mindspore.run_check()"

说明一个很奇怪的事情,虽然在conda环境里面做pip install,但是好像还是装到了base环境。

python test.py

这说明gcc 7.3.0可以正常完成mindspore 1.8.0的编译和安装。。。

gcc 9.4.0暂时不行。

张小白不甘心,还是决定在conda环境试一试,先确认下base环境和conda环境的版本:

显然是两个不同的环境。

然后,在原来直接pip install的基础上,换成使用python -m pip install的方式安装:

这次居然有把packaging的包装进去。看来原因是前面pip install仅仅装到了base环境。

再试下两种检验方式:

另一种方式:

终于都没问题了。

这倒是解决了  https://blog.csdn.net/snmper/article/details/125744048
 在安装1.7.0过程中出的问题。

(全文完,谢谢阅读)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
MindSpore中,Transformer模型是基于自注意力机制的深度学习模型,在NLP领域被广泛应用。MindSpore提供了相关的API和方法来构建和训练Transformer模型。 首先,在MindSpore中,可以使用`EmbeddingLookup`类来定义词嵌入层,该层负责将输入的单词转换为向量表示。这个类在`transformer_model.py`文件中进行定义。 接下来,为了进行网络的反向传播和训练,可以使用MindSpore的高级接口`MindSpore.Model`来定义网络反向和进行训练。在`transformer_model.py`文件中,可以看到网络的反向定义以及使用`MindSpore.Model`进行训练的示例代码。首先,通过`TransformerTrainOneStepCell`将网络和损失函数组合在一起,然后使用该组合后的网络进行训练。 最后,通过调用`model.train`方法,可以使用定义好的模型、数据集和优化器进行训练。需要指定训练的轮数、数据集、回调函数等参数来完成训练过程。 综上所述,在MindSpore中,可以使用相关的API和方法来构建和训练Transformer模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [【MindSpore易点通】Transformer的注意力机制](https://blog.csdn.net/Kenji_Shinji/article/details/127958722)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [基于MindSpore的Transformer网络实现](https://blog.csdn.net/Kenji_Shinji/article/details/127314332)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张小白TWO

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值