自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 文献阅读:WGAN

自从2014年Ian Goodfellow提出以来,GAN就存在着训练困难、生成器和判别器的loss无法指示训练进程、生成样本缺乏多样性等问题。

2024-01-21 20:29:12 811 1

原创 文献阅读:GoogLeNet

2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了图片分类大赛第一名、VGG紧随其后,这两类模型结构的共同特点是网络深度更深了。

2024-01-14 22:27:20 905 1

原创 文献阅读:GoogLeNet

2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了图片分类大赛第一名、VGG紧随其后,这两类模型结构的共同特点是网络深度更深了。

2024-01-14 22:26:23 792 1

原创 文献阅读:VGG

本周主要学习了VGG这一经典的卷积神经网络,通过阅读相关论文和研究工作,我对VGG的结构和创新有了更深刻的理解。VGG由一系列卷积层组成,使用小尺寸的3x3卷积滤波器,接着是最大池化层。这种简单而统一的架构使得它易于理解和实现。与之前的AlexNet等架构相比,VGG网络相对较深。通过堆叠多个卷积层,实现了更抽象和层次化的特征表示。VGG网络中的卷积层都使用相同大小的滤波器,这提高了网络的一致性。VGG网络在设计上注重网络的深度和宽度。

2024-01-07 19:41:24 805 1

原创 文献阅读ResNet

本周学习ResNet论文。随着网络深度的增加,梯度消失和网络退化问题限制了神经网络的进一步发展。ResNet的研究旨在解决这些问题,通过引入残差学习和跳跃连接的概念,构建了一种新的神经网络架构。ResNet的关键创新在于通过残差块让层学习输入和输出之间的残差,使网络更易训练。跳跃连接直接将输入传递到深层网络,有助于梯度传播和信息保留。这一设计允许网络深度显著增加,提高了性能,同时解决了深层网络的训练问题。

2023-12-31 18:42:37 998 1

原创 文献阅读LeNet-5

本周主要深入研究了LeNet-5这一经典的卷积神经网络,通过阅读相关论文和研究工作,我对LeNet-5的结构和创新有了更深刻的理解。LeNet-5是深度学习领域的一个重要里程碑,因为它是早期用于图像分类任务的关键模型之一,它激发了对神经网络在计算机视觉领域的广泛研究,也启发了后续深度学习架构的发展。LeNet-5的卷积和池化层的引入以及权值共享的概念对于今天的深度学习模型仍然具有重要意义。通过不断改进和迭代,深度学习已经成为解决各种复杂问题的强大工具,如图像识别、自然语言处理、语音识别等。

2023-12-24 19:18:29 76 1

原创 GAN生成对抗网络

本周主要学习了生成对抗网络,生成对抗网络由生成模型和判别模型构成,生成模型获取真实数据 的概率分布,判别模型判断输入是真实数据还是生成器生成的数据,二者通过相互对抗训练,最终使生成模型学习 到真实数据的分布,使判别模型无法准确判断输入数据的来源。本文探讨了GANs的研究现状、应用场景和基本模型架构,并指出GANs自身存在的问题;从网络架构、损失函数和训练方式三个方面归纳GANs的主要发展;

2023-12-17 19:56:04 112 1

原创 文献阅读ZFNet

本周主要学习了ZFNet,AlexNet是第一个在大规模图像分类竞赛ImageNet上取得显著优势的CNN模型。ZFNet的目的是尝试改进AlexNet的性能,进一步提高图像分类的准确性。ZFNet提出了一种新的网络结构。它采用了更小的卷积核、更大的卷积步长和更深的网络层次,通过增加网络的层数来增加模型的表达能力。这种深度网络结构的引入对于提高图像分类性能起到关键作用,并为后续更深层次的模型设计奠定了基础。与AlexNet类似,ZFNet也采用了深层的卷积层堆叠。

2023-11-26 20:58:44 24 1

原创 文献阅读:AlexNet

本周主要深入研究了AlexNet这一经典的卷积神经网络,通过阅读相关论文和研究工作,我对AlexNet的结构和创新有了更深刻的理解。AlexNet是深度学习领域的一个重要里程碑,因为它首次证明了深度神经网络在大规模数据集上的有效性。AlexNet包含5个卷积层、3个全连接层和最后的softmax分类层,总共有8层。AlexNet首次在卷积神经网络中广泛使用了ReLU(Rectified Linear Unit)作为激活函数,这使得网络的训练速度比使用sigmoid或tanh激活函数的网络快很多。

2023-11-05 20:13:16 104

原创 机器学习周报(六)--空间变换层和自注意力机制

本周学习了空间变换层(Spatial Transformer Layer)和self-attention(自注意力机制),Spatial Transformer Layer(空间变换层)是一种在卷积神经网络中引入空间变换的机制。它允许网络自动学习输入图像的几何变换,以提高网络的鲁棒性和性能。它可以通过学习如何对输入进行旋转、缩放、平移等变换,使得网络可以更好地适应不同的输入数据。空间变换层可以应用于许多计算机视觉任务,如图像分类、目标检测和图像分割等。

2023-07-17 11:38:30 169 1

原创 机器学习周报(四)--逻辑回归和机器学习任务

本周学习了逻辑回归的基本原理以及对应梯度下降实现的代码,对于逻辑回归,其基本原理是将输入特征通过线性加权求和,并经过sigmoid函数转化为0-1之间的值,从而得到样本为正的概率,最后通过交叉熵损失函数优化模型预测结果。通过对比逻辑回归和生成性学习,知道了两者的不同,不能直接说逻辑回归就是最好的,生成性学习通常会假设一个概率分布,这相当于提前进行了判断,无论哪种分类方法好需要根据实际来选择。

2023-07-02 23:06:27 117 1

原创 机器学习周报(三)--神奇宝贝预测和分类问题

本周学习了预测宝可梦cp值和分类问题,预测宝可梦cp值时通过选取适当的函数来预测输出,需要通过定义Loss Function来评估函数的好坏,并通过Gradient Descent来找到最佳的参数。如果函数过于复杂,会出现过拟合的问题,需要加入正则化来平衡模型的复杂度和准确度。分类问题以神奇宝贝分类为例,通过选取适当的函数和损失函数,以及使用算法如朴素贝叶斯,伯努利分布提升分类预测的准确性。代码部分学习了标准方程法及实战。定义一个model y=w*x^cp+b。该model中包含b,w等未知参数。

2023-06-25 22:43:22 361

原创 学习周报(二)

梯度下降(gradient descent)在机器学习中应用十分的广泛,不论是在线性回归还是Logistic回归中,它的主要目的是通过迭代找到目标函数的最小值,或者收敛到最小值。梯度下降的基本过程就和下山的场景很类似。首先,我们有一个可微分的函数。这个函数就代表着一座山。我们的目标就是找到这个函数的最小值,也就是山底。根据之前的场景假设,最快的下山的方式就是找到当前位置最陡峭的方向,然后沿着此方向向下走,对应到函数中,就是找到给定点的梯度 ,然后朝着梯度相反的方向,就能让函数值下降的最快!

2023-06-19 00:33:02 88 1

原创 机器学习周报(一)

先给定某一组 W、b、c^T跟 b的初始值,然后把一种 Feature x 带进去,然后看看你估测出来的 y 是多少,再计算一下跟真实的 Label 之间的差距,你得到一个 e,把所有的误差通通加起来,你就得到你的 Loss。

2023-06-11 11:50:57 231 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除