【MindSpore易点通】在开发环境下如何使用MindInsight可视化Dump数据

1、为什么要使用开发环境中MindInsight离线调试器?

在开发环境中使用MindInsight离线调试器可以方便地查看Dump数据,具有图码映射、自动格式转换等功能,帮助用户进行精度调优分析。

2、Dump数据准备

在训练脚本中写入收集Dump数据的代码,执行训练脚本可获取Dump数据,推荐使用异步Dump。

注:一般网络的Dump数据都比较大(单卡单step能产生GB级别的数据),且保存时间长,对性能影响比较大,所以不建议在一个训练任务中收集过多step的Dump数据。

3、创建开发环境并启动MindInsight的离线调试器

3.1 创建开发环境

在ModelArts控制台,进入“开发环境管理 > DevContainer”页面,创建开发环境实例,创建成功后,单击开发环境实例操作栏右侧的“打开 > 打开Notebook”,在线打开运行中的开发环境。

打开方式如下图所示:

3.2 上传Dump数据并启动离线调试器

在保存Dump数据时,可以直接保存到/home/ma-user/work/xxx/中,也可通过自动回传mox操作放入OBS桶中,由于Dump数据所占磁盘空间较大,故在此推荐使用OBS方式。在开发环境中启动MindInsight时,开发环境会自动挂载OBS目录读取Dump数据,比较方便。

在对话框中执行如下命令打开Mindinsight的离线调试器。

%reload_ext mindinsight
%mindinsight --port {PORT} --summary-base-dir {SUMMARY_BASE_DIR}

参数解释:

  • --port {PORT}:指定Web可视化服务端口。可以不设置,默认使用8080端口。如果8080端口被占用了,需要在1~65535任意指定一个端口。
  • --summary-base-dir {SUMMARY_BASE_DIR}:表示数据在开发环境中的存储路径。
  • OBS桶的路径:obs://xxx/
  • 开发环境本地路径:./work/xxx(相对路径)或/home/ma-user/work/xxx(绝对路径)

注:如需读取桶内数据请务必在路径前添加obs://

此处路径中的xxx填写要求为:Dump配置中的{path}路径的上一层或上两层,推荐使用上两层。当有多个dump数据包时,可以在UI界面的Summary List列表中看到多个数据列表。

eg:

dump数据包路径为summary-base-dir/summary_dir/lenet/rank_0/.dump_metadata,则对应的{path}路径为summary-base-dir/summary_dir/lenet/

运行成功后如下图所示:

4、调试完成后关闭MindInsight

在.ipynb文件框中输入命令,关闭 MindInsight。端口号应与启动MindInsight中设置一致。

!mindinsight stop --port {port}

关闭成功后如下图所示:

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MindSpore中,Transformer模型是基于自注意力机制的深度学习模型,在NLP领域被广泛应用。MindSpore提供了相关的API和方法来构建和训练Transformer模型。 首先,在MindSpore中,可以使用`EmbeddingLookup`类来定义词嵌入层,该层负责将输入的单词转换为向量表示。这个类在`transformer_model.py`文件中进行定义。 接下来,为了进行网络的反向传播和训练,可以使用MindSpore的高级接口`MindSpore.Model`来定义网络反向和进行训练。在`transformer_model.py`文件中,可以看到网络的反向定义以及使用`MindSpore.Model`进行训练的示例代码。首先,通过`TransformerTrainOneStepCell`将网络和损失函数组合在一起,然后使用该组合后的网络进行训练。 最后,通过调用`model.train`方法,可以使用定义好的模型、数据集和优化器进行训练。需要指定训练的轮数、数据集、回调函数等参数来完成训练过程。 综上所述,在MindSpore中,可以使用相关的API和方法来构建和训练Transformer模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [【MindSpore易点通】Transformer的注意力机制](https://blog.csdn.net/Kenji_Shinji/article/details/127958722)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [基于MindSpore的Transformer网络实现](https://blog.csdn.net/Kenji_Shinji/article/details/127314332)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值