![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习入门
文章平均质量分 67
学而知不足~
这个作者很懒,什么都没留下…
展开
-
李宏毅深度学习03——神经网络训练不起来怎么办
假设将分类问题按照回归问题来做即假设class对应着数字1,2,3,有时候可行,有时候不可行。比如假设根据身高体重预测是几年级,由于年级之间有联系,所以可行但是如果这几个class之间没有联系,则不可行。原创 2024-06-20 15:56:13 · 505 阅读 · 0 评论 -
李宏毅深度学习02——机器学习任务攻略
先用一个比较简单的模型或者说比较浅层的模型来算Loss,接着再用复杂的模型来算Loss,如果复杂的模型Loss反而更大,则证明是Optimization Issus,否则是Model Bias。原创 2024-06-19 09:58:02 · 166 阅读 · 0 评论 -
李宏毅深度学习项目——HW1个人笔记
数据集类,处理和加载用于训练模型或者进行预测的数据''''''self.y = yelse:else:# 模型定义,继承自pytorch的nn.Moudule基类(所有神经网络的基类)# 调用父类的构造函数(必须)# 定义自己的模型,nn.Sequential是一个容器,按顺序包含一系列的层,这里定义了三个连接层和两个激活函数# 这里的激活函数是ReLu(),意思是如果nn.Linear()的结果小于0,则神经网络不继续往下走,用于缓解梯度消失问题nn.ReLU(),原创 2024-06-18 15:06:20 · 209 阅读 · 0 评论 -
李宏毅深度学习01——基本概念简介
loss(损失函数):一个函数,输入是模型中的参数 L(b, w),输出的值代表这组b,w好还是不好,值越大,代表b,w越不好MAE(mean absolute error): 均值绝对误差MSE(mean square error): 均值方差Cross-entropy:如果预测值和实际值都是随机分布的,则使用这种方式查看损失值label(真实值):真实的值,类似于训练数据Error surface(误差面):等高线图。原创 2024-06-13 17:32:27 · 962 阅读 · 0 评论 -
Numpy练习
执行save时会在当前项目路径下生产一个my_array.npy文件,等到实际用的时候再通过load把数组拿出来。切片操作是左闭右开的,即包括起始位置,但不包括结束位置。总体思路就是一维一维地分解,并不是什么高深的东西。多维数组看大佬参考链接解释。原创 2024-06-06 17:51:23 · 248 阅读 · 0 评论