计算图与自动微分 优化问题

计算图与自动微分

构造模型: model=Sequential()
全连接层:Dense()
输入输出维度:output_dim,input_dim
激活函数(使用的relu):Activation(“relu”)
损失函数(使用的交叉熵):loss=‘categorical_crossentropy’
优化(使用梯度下降法):optimizer=‘sgd’
衡量指标(使用的准确率):metrics=[‘accuracy’]
随机梯度下降开始训练:model.fit()

深度学习的三个步骤

1.定义网络
2.损失函数
3.优化

前馈神经网络的训练过程

1.前向计算每一层的状态和激活值,直到最后一层(损失函数)
2.反向计算每一层的参数的偏导数(梯度)
3.更新参数

计算图

当我们设计软件去实现神经网络的时候,我们希望有一个方法,不管网络结构是什么类型的,我们都可以无缝衔接地去计算梯度。所以,当网络发生变化的时候,程序员不需要去手动计算梯度,只需要通过软件来实现。我们用计算图的数据结构来实现这个想法。

优化问题

难点
非凸优化问题:即存在局部最优而非全局最优解,影响迭代
梯度消失问题:下层参数比较难调
参数过多,影响训练,参数解释起来比较困难
需求
计算资源要大
数据要多
算法效率要好,即收敛快

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
今年的华为开发者大会 HDC 2020 上,除了**昇腾、鲲鹏等自研芯片硬件平台**之外,最令人期待的就是**深度学习框架 MindSpore 的开源**了。今天上午,华为 MindSpore **首席科学家陈雷**在活动中宣布这款产品正式开源,我们终于可以在开放平台上一睹它的真面目。 本文是根据机器之心报道的MindSpore 的开源介绍而整理的.md笔记 作为一款支持**端、边、云独立/协同的统一训练和推理框架,华为希望通过这款完整的软件堆栈,实现**一次性算子开发、一致的开发和调试体验**,以此帮助开发者实现**一次开发,应用在所有设备上平滑迁移**的能力。 三大创新能力:新编程范式,执行模式和协作方式 由**自动微分自动并行、数据处理**等功能构成 开发算法即代码、运行高效、部署态灵活**的**特点**, 三层核心:从下往上分别是**后端运行时、计算引擎及前端表示层**。 最大特点:采用了业界最新的 **Source-to-Source 自动微分**,它能**利用编译器及编程语言的底层技术**,进一步**优化以支持更好的微分表达**。主流深度学习框架中主要有**三种自动微分技术,才用的不是静态计算、动态计算,而是基于**源码**转换:该技术源以**函数式编程框架**为基础,以**即时编译(JIT)**的方式**在<u>中间表达</u>(编译过程中程序的表达形式)上做自动微分变换**,支持**<u>复杂控制流场景、高阶函数和闭包</u>**。 MindSpore 主要概念就是张量、算子、单元和模型 其代码有两个比较突出的亮点:计算的调整,动态与静态可以一行代码切换;自动并行特性,我们写的串行代码,只需要多加一行就能完成自动并行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值