- 博客(5)
- 收藏
- 关注
原创 深度学习--笔记(自动微分)--来自李沐-动手学深度学习
在我们计算y关于x的梯度之前,需要⼀个地⽅来存储梯度。注意,⼀个标量函数关于向量x的梯度是向量,并且与x具有相同的形状。使⽤⾃动微分的⼀个好处是:即使构建函数的计算图需要通过Python控制流(例如,条件、循环或任意函数 调⽤),我们仍然可以计算得到的变量的梯度。换⾔之,对于任何a,存在某个常量标量k,使得f(a)=k*a,其中k的值取决于输⼊a,因此可以⽤d/a验证梯度是否正确。: grad_fn用来记录变量是怎么来的,方便计算梯度,y = x*3,grad_fn记录了y由x计算的过程。
2023-04-23 15:04:57
90
1
原创 神经网络与深度学习--学习笔记(四)
第一步:文本切分 (tokenization)第二步:统计词频创建一个字典 (实际中经常使用Hash 表) 进行词频统计初始字典为空遍历文本,并按如下更新字典:如果单词不再字典中, 加入该单词 (𝑤, 1)否则将其词频加1直到完成整个遍历按照词频降序进行排序将词频索引化如果词汇太多,则只保留排序在前 的k个单词 (如取𝑘 = 10000)第三步:独热编码。
2023-04-19 12:10:43
47
1
原创 神经网络与深度学习--学习笔记(三)
TP: 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数FP: 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数FN:被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数TN: 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数P(精确率): TP/(TP+FP)R(召回率): TP/(TP+FN)。召回率越高,准确度越低。
2023-04-19 00:10:35
42
1
原创 神经网络与深度学习--学习笔记(二)
经典网络:以“一个或多个卷积层+一个池化层“作为一个基本 单元进行堆叠,在网络尾部使用全连接层,最后以Softmax为分 类器,输出结果。残差网络:在普通网络的基础上,将浅层的激活项通过支路直接 传向深层,克服深层神经网络中梯度消失的问题,为训练极深的 神经网络提供便利。数据集:常见的数据集包括VOC和COCO;ImageNet较大。
2023-03-28 09:46:41
66
原创 神经网络与深度学习--学习笔记(一)
⾸先介绍⼀些核⼼组件。⽆论什么类型的机器学习问题,都会遇到这些组件:1. 可以⽤来学习的数据(data);2. 如何转换数据的模型(model);3. ⼀个⽬标函数(objective function),⽤来量化模型的有效性;4. 调整模型参数以优化⽬标函数的算法(algorithm)。
2023-03-20 14:36:23
69
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人