pytorch深度学习框架基础知识

本文介绍了深度学习中的核心概念:张量、计算图和自动求导。张量作为数据的基本单元,支持多种运算及维度变换。计算图用于记录运算过程,静态图节省构建时间,动态图提供更高灵活性。自动求导是反向传播的基础,动态计算图允许高效地计算梯度。
摘要由CSDN通过智能技术生成

1. 张量

在深度学习中,张量的计算是核心,一张迷你批次大小的图片可以看成四维的张量,一个迷你批次的文本可以看成二维张量或更高维度的张量。张量在内存中是从最后一个维度开始的连续排列的。张量可以支持每一个维度的长度,也支持四则运算,如加、减、乘、除等,另外,还支持变换维度。张量可以把某个维度分裂成两个维度,也可以把多个维度合并成一个维度。张量支持线性变换的操作(如卷积层和全连接层)和对每个元素的激活函数操作。

2. 计算图

一般来说,神经网络需要记录运算的过程,并构建计算图的方法。在深度学习中,目前存在静态图和动态图两种计算方式。静态图就是在计算之前先构建一个计算图,图中的节点是运算操作,包括矩阵的乘法和加法等。因为静态图是固定的,不用每次计算都重新构建计算图,所以有效地减少了计算图构建的时间消耗。但静态图的缺陷是构建完成之后不能修改,不便于循环和条件判断语句的书写。动态图就是在计算过程中逐渐构建计算图,最后得到神经网络的输出结果。动态图虽然执行效率比静态图低,但灵活性更强。

3. 自动求导和反向传播

深度学习中的所谓的自动求导是指从标量值反推计算图权重张量的梯度,动态计算图在构建前向计算的时候会给每个输出张量绑定一个反向传播的梯度计算函数,当计算图到达最终的损失函数张量的时候,直接调用该张量对应的反向传播函数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

饕餮&化骨龙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值