深度学习
文章平均质量分 83
记录一下自己深度学习的过程
是Dream呀
CSDN、稀土掘金人工智能签约作者,985人工智能硕士、CSDN专家博主&人工智能领域优质创作者。一万次悲伤依然会有Dream,我一直在最温暖的地方等你!
精通撰文推广有任何需求我都可以帮助到您— —学习交流|商务合作|粉丝福利:https://bbs.csdn.net/topics/614347534
vx:18300396393
展开
-
CNN网络训练WISDM数据集:模型仿真及可视化分析
WISDM数据集是一个用于人类活动识别(Human Activity Recognition, HAR)的公共数据集。数据集来源与构成WISDM数据集由福特汉姆大学计算机与信息科学系的Gary Weiss博士领导的团队创建。数据集包含了51名参与者进行的18种不同的活动,每种活动的数据都是通过佩戴在身体不同部位的智能手机和智能手表上的加速度计和陀螺仪以20Hz的频率收集得到的。数据集特点数据集中的活动包括但不限于走路、跑步、上下楼梯、坐、站等。原创 2024-09-25 12:42:49 · 2455 阅读 · 19 评论 -
深度学习:线性回归从零开始实现
"""线性回归模型"""因为需要计算损失函数的梯度,所以我们应该先定义损失函数。在实现中,我们需要将真实值y的形状转换为和预测值y_hat的形状相同。"""均方损失"""我们用批量大小(batch_size) 来规范化步长,这样步长大小就不会取决于我们对批量大小的选择。"""小批量随机梯度下降"""在PyTorch中,全连接层在Linear类中定义。值得注意的是,我们将两个参数传递到nn.Linear中。第一个指定输入特征形状,即2,第二个指定输出特征形状,输出特征形状为单个标量,因此为1。原创 2024-07-14 18:19:25 · 44617 阅读 · 3 评论 -
机器学习:SVM、softmax、Dropout及最大池化max_pool介绍
W: (3072, 10), 重新reshape到(32, 32, 3, 10)最后的10代表10个分类器,前面的就是每个分类器可视化的结果,它像是每个类别的所有图像的一个模板(取了平均值,因为只有数值相近的时候平方才最大),如果某个类别的分数较高,那么它就越接近这个类图片的模板。Dropout可以有效地抑制过拟合,一般来说神经元失活的概率越大在训练集上和在验证集上的区别就越小,但是较大的失活概率会导致神经网络的容量下降,更难拟合数据。在前向传播的过程中注意保存中间数据,为了反向传播的时候方便计算。原创 2024-02-10 19:54:15 · 1899 阅读 · 6 评论 -
BatchNorm介绍:卷积神经网络中的BN
在机器学习中让输入的数据之间相关性越少越好,最好输入的每个样本都是均值为0方差为1。在输入神经网络之前可以对数据进行处理让数据消除共线性,但是这样的话输入层的激活层看到的是一个分布良好的数据,但是较深的激活层看到的的分布就没那么完美了,分布将变化的很严重。这样会使得训练神经网络变得更加困难。所以添加BatchNorm层,在训练的时候BN层使用batch来估计数据的均值和方差,然后用均值和方差来标准化这个batch的数据,并且随着不同的batch经过网络,均值和方差都在做累计平均。原创 2024-02-10 19:52:32 · 1741 阅读 · 4 评论 -
深度学习吴恩达老师(一):神经网络和深度学习(Neural Networks and Deep Learning):内容整理 + 习题分享
神经网络和深度学习Neural Networks and Deep Learning:1.1 欢迎(Welcome)1.2 什么是神经网络?(What is a Neural Network)1.3 神经网络的监督学习(Supervised Learning with Neural Networks)1.4 为什么深度学习会兴起?(Why is Deep Learning taking off?)1.5 关于这门课(About this Course)1.6 课程资源(Course Resources)原创 2021-11-16 17:03:20 · 2862 阅读 · 0 评论