深度学习
0基础动手学深度学习
唔希迪西
这个作者很懒,什么都没留下…
展开
-
笔记34:转置卷积 Transposed Convolution 的由来
注:该文章为视频课的笔记补充。原创 2023-10-08 00:01:53 · 95 阅读 · 0 评论 -
笔记35:多层感知机MLP
(1)全连接神经网络【Fully Connected Neural Network】【FCNN】(2)前馈神经网络【Feedforward Neural Network】【FNN】(3)多层感知机【Multilayer Perceptron 】【MLP】注意:这三种东西都是同一种网络结构,只是叫法不同而已。原创 2023-10-08 11:42:00 · 35 阅读 · 0 评论 -
笔记36:CNN的多通道卷积到底是什么样的
可以知道:因为该卷积层中含有100个不同的卷积核,所以最后输出的 feature_map 是100通道的。(1)输入卷积层的feature_map的通道数,就是该卷积层每个卷积核所含有的通道数。(2)输出卷积层的feature_map的通道数,就是该卷积层所含有的卷积核的个数。解释:【假设 --- 输入卷积层的 feature_map 通道数为5】原创 2023-10-08 20:17:31 · 276 阅读 · 1 评论 -
笔记37:全卷积网络FCN结构详解
aaaaaaaaaaaaaaaaaaaaaaa。原创 2023-10-09 10:38:14 · 111 阅读 · 0 评论 -
笔记38:膨胀卷积/空洞卷积的原理
aaaaaaaaaaaaaaa。原创 2023-10-09 12:43:52 · 94 阅读 · 0 评论 -
笔记42:超详细的梯度消失/梯度爆炸原理解释
梯度消失:原创 2023-10-25 11:29:08 · 49 阅读 · 0 评论 -
笔记43:ResNet 结构详解
笔记本地地址:D:\work_file\DeepLearning_Learning\03_个人笔记\2.图像处理任务\ResNet网络学习。原创 2023-10-26 22:43:47 · 181 阅读 · 0 评论 -
笔记44:Batch_Normlization 过程详解
笔记本地地址:D:\work_file\DeepLearning_Learning\03_个人笔记\2.图像处理任务\BN。原创 2023-10-28 01:05:02 · 252 阅读 · 1 评论 -
笔记45:迁移学习简介
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\2.图像处理任务\迁移学习。原创 2023-10-28 11:24:38 · 25 阅读 · 0 评论 -
笔记46:ResNeXt 网络详解
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\2.图像处理任务\ResNeXt网络学习。原创 2023-10-29 16:52:08 · 132 阅读 · 0 评论 -
笔记47:FCN网络的Pytorch实现
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\1.语义分割任务\Pytorch中FCN的实现。原创 2023-10-30 21:15:15 · 82 阅读 · 0 评论 -
笔记48:51序列模型--课程笔记
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\序列模型。原创 2023-10-31 15:14:02 · 54 阅读 · 0 评论 -
笔记49:53语言模型--课程笔记
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\语言模型。PS:沐神别怪我,实在是截屏避不开啊,我就留个备忘,在我博客里先委屈一下哈,对不住了。原创 2023-10-31 22:06:59 · 85 阅读 · 0 评论 -
笔记50:正则表达式入门宝典
自网络出现以来,文本信息指数爆炸式增长,乃至于各种文字泛滥于天下,自此,江湖皆是修文之人。没错,咱们就规定以“来自话题”为开头,然后匹配到下一行的任意内容(反正经过观察,这就是想要的标题行了)。没错,是带着斜杆的d,没有了斜杆,软件就以为你是要找“d”的字母了。全选页面,复制,粘贴到我们的。当然,现在面对的是小网页,文本不多,可能看不出什么优势……原创 2023-11-06 20:53:26 · 296 阅读 · 0 评论 -
笔记51:循环神经网络入门
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\循环神经网络。原创 2023-11-14 20:56:22 · 88 阅读 · 0 评论 -
笔记52:循环神经网络的从零开始实现(官方笔记补充)
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\循环神经网络从零开始实现。原创 2023-11-16 00:10:27 · 33 阅读 · 0 评论 -
笔记53:torch.nn.rnn() 函数详解
(1)input_size():即输入信息 Xt 的每个序列的独热编码向量的长度,即 len(vocab)(2)hidden_size():即隐变量 h 的维度(维度是多少,就代表用几个数字存储该序列的历史信息)(3)num_layers:隐藏层的层数。原创 2023-11-16 21:17:08 · 516 阅读 · 0 评论 -
笔记54:门控循环单元 GRU
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-17 23:58:48 · 796 阅读 · 0 评论 -
笔记55:长短期记忆网络 LSTM
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-19 15:54:42 · 580 阅读 · 0 评论 -
笔记56:深度循环神经网络
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-20 14:42:45 · 35 阅读 · 0 评论 -
笔记57:双向循环神经网络
本地笔记地址:D:\work_file\DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-20 21:18:45 · 121 阅读 · 0 评论 -
笔记58:Encoder-Decoder 架构
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-22 16:07:04 · 155 阅读 · 0 评论 -
笔记59:序列到序列学习Seq2seq
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-22 21:10:45 · 277 阅读 · 0 评论 -
笔记60:束搜索
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第9章:动手学深度学习~现代循环神经网络。原创 2023-11-24 20:49:37 · 15 阅读 · 0 评论 -
笔记61:注意力提示
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-11-26 20:55:20 · 131 阅读 · 0 评论 -
笔记62:注意力汇聚 --- Nadaraya_Watson 核回归
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-11-27 18:06:31 · 193 阅读 · 0 评论 -
笔记63:注意力评分函数
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-11-29 22:06:10 · 181 阅读 · 0 评论 -
笔记64:Bahdanau 注意力
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-11-30 16:49:31 · 134 阅读 · 0 评论 -
笔记65:多头注意力
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-12-01 18:24:25 · 36 阅读 · 0 评论 -
笔记66:自注意力和位置编码
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-12-04 21:03:11 · 105 阅读 · 0 评论 -
笔记67:Transformer
本地笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章:动手学深度学习~注意力机制。原创 2023-12-06 12:46:25 · 93 阅读 · 0 评论 -
笔记68:Pytorch中repeat函数的用法
不同与expand(),本函数复制的是tensor中的数据。相当于一个broadcasting的机制。原创 2023-12-06 19:55:43 · 347 阅读 · 0 评论 -
笔记69:Conv1d 和 Conv2d 之间的区别
笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\4. Transformer 网络变体。原创 2023-12-10 16:23:42 · 158 阅读 · 0 评论 -
笔记70:BatchNorm / LayerNorm / GroupNorm 对比
笔记地址:D:\work_file\(4)DeepLearning_Learning\03_个人笔记\4. Transformer 网络变体。原创 2023-12-10 21:40:21 · 57 阅读 · 0 评论