深度学习框架函数解析
文章平均质量分 52
详细介绍例如pytorch等框架内置函数计算原理、使用方法,主要用于做笔记,便于查阅及防止遗忘。
兰宵宫
这个作者很懒,什么都没留下…
展开
-
torch.nn.functional.log_softmax 函数解析
softmax 计算公式:log_softmax 计算公式:可见仅仅是将 softmax 最外层套上 log 函数。原创 2023-11-18 11:50:12 · 1630 阅读 · 1 评论 -
pytorch中nn.Conv1d功能介绍
output_channel=4,即由四个卷积核,每个卷积核的通道数和输入的通道数相同,这里是3,如图2所示,第一个元素'abc'的三个通道'a', 'b', 'c'输入第一个卷积核,得到红色数字,第二个单词经过卷积核得到黄色数字,排成一列得到第一个通道,四个卷积核得到输出的四个通道。在使用Conv1d函数时,pytorch默认你的数据是一维的,比如一句话“深度学习”可以用一个一维数组 ['深', '度', '学', '习'] 表示,这个数据就是一维的。卷积核大小为1,卷积核通道数和输入数据的通道数一致。原创 2023-09-02 22:01:48 · 1134 阅读 · 3 评论 -
torch.tensor.max 函数解析
pytorch 中的函数 torch.tensor.max(dim, keepdim = False)用于求某一维的最大值。可见对第dim维度进行max操作,就是把其它维度固定,对dim维度所有值进行取最大值。返回值索引0为其数值,索引1为其最大值的索引。原创 2023-11-17 16:49:15 · 687 阅读 · 0 评论 -
torch.bmm功能解读
bmm 是 batch matrix multiple 的简写,即批量矩阵乘法,矩阵是二维的,加上batch一个维度,因此该函数的输入必须是两个三维的tensor,三个维度代表的含义分别是:(批量,行,列)。的第 i 个矩阵作乘法,i = 1, 2, 3, ..., a。因此为了矩阵乘法能够进行,c 和 e 必须相同。计算过程如图1所示。要求 a = d, c = e,即批量数相同,在计算时。的 shape 为 (a, b, c)的 shape 为 (d, e, f),与图1中绿色矩阵对应。原创 2023-09-03 15:01:32 · 731 阅读 · 0 评论