深度学习
文章平均质量分 90
开心星人
信安之路,道阻且长
展开
-
【论文阅读】ImageNet Classification with Deep Convolutional Neural Networks
1、摘要alexNet由5个卷积层和3个全连接层构成,其中还加入了一些max pooling层,最后用softmax回归的到1000个结果。使用了dropout正则化方法来防止过拟合。在ImageNetSVRC-2010的1000个类的120万张高分辨率图像中,获得了37.5%和17.0%的top-1和top-5的错误率。这是近年神经网络兴起的除了LeNet之外的第一个开山之作(1)TOP-1 准确率:在图像分类任务中,TOP-1 准确率表示模型在给定的测试数据集上正确分类的图像所占的比例。原创 2024-08-01 15:10:55 · 800 阅读 · 0 评论 -
【深度学习】kaggle使用
使用要挂代理,要不然可能无法注册绑定手机号之后才能使用GPU每周30h免费GPU使用时长。原创 2024-07-30 09:41:53 · 455 阅读 · 0 评论 -
【深度学习 pytorch】迁移学习 (迁移ResNet18)
李宏毅深度学习笔记《深度学习原理Pytorch实战》原创 2024-07-13 14:57:04 · 822 阅读 · 0 评论 -
【pytorch】手写数字识别
为了防止过拟合,dropout操作可以在训练阶段将一部分神经元随机关闭,而在校验和测试的时候再打开。可以使用。原创 2024-07-12 22:38:25 · 1366 阅读 · 0 评论 -
【深度学习】Transformer
李宏毅深度学习笔记Transformer 是一个基于自注意力的序列到序列模型,与基于循环神经网络的序列到序列模型不同,其可以能够并行计算。原创 2024-07-03 22:42:51 · 782 阅读 · 0 评论 -
【深度学习】注意力机制
注意力机制:在处理信息的时候,会将注意力放在需要关注的信息上,对于其他无关的外部信息进行过滤,这种处理方式被称为注意力机制。注意力机制可以使模型在处理序列数据时更加准确和有效。在传统的神经网络中,每个神经元的输出只依赖于前一层的所有神经元的输出,而在注意力机制中,每个神经元的输出不仅仅取决于前一层的所有神经元的输出,还可以根据输入数据的不同部分进行加权,即对不同部分赋予不同的权重。这样可以使模型更加关注输入序列中的关键信息,从而提高模型的精度和效率。原创 2024-07-02 21:52:59 · 1253 阅读 · 0 评论 -
【深度学习】循环神经网络RNN、LSTM、GRU
李宏毅深度学习笔记。原创 2024-07-02 14:49:08 · 756 阅读 · 1 评论 -
【深度学习】卷积神经网络CNN
李宏毅深度学习笔记。原创 2024-06-28 19:39:30 · 1614 阅读 · 0 评论 -
【深度学习】深度学习基础
李宏毅深度学习笔记。原创 2024-06-28 14:00:53 · 883 阅读 · 0 评论 -
【深度学习】实践方法论
李宏毅深度学习笔记。原创 2024-06-27 20:30:27 · 693 阅读 · 0 评论 -
【深度学习】机器学习基础
机器学习就是让机器具备找一个函数的能力带有未知的参数的函数称为模型通常一个模型的修改,往往来自于对这个问题的理解,即。原创 2024-06-27 17:58:10 · 632 阅读 · 0 评论