- 博客(4)
- 收藏
- 关注
原创 神经网络与深度学习——笔记4
内容代价函数JcontentCG∥alC−alG∥22JcontentCGalC−alG22其中alCalC为内容图像在神经网络lll层的输出,alGalG为合成图像在神经网络lll层的输出。风格代价函数JstyleSG∑lλlJstylelSG12nhlnwlncl2∑k∑k′Gkk′lS−。
2023-04-16 22:38:35 76 1
原创 神经网络与深度学习——笔记3
其中卷积的填充为1,步长为1,池化的步长为2,激活函数为Relu,每个VGG块的卷积使图像大小缩小一半同时输出通道数翻倍,直到通道数达到512。d2l包中的内置层Residual为残差块实现的层,我们可以直接实例化一个残差块的层, 共有四个参数,前两个参数分别为输入输出通道数input_channels,num_channels,第三个参数表示是否使用1。定义网络的卷积数和输出通道数,共有5个VGG块,每个块中的卷积数分别为2,2,3,3,3,输出通道数分别为64,128,256,512,512。
2023-04-02 10:53:17 107
原创 神经网络与深度学习——笔记2
使用一个固定大小的滑窗在输入上滑动,每次将滑窗内的元素聚合为一个值作为输出,即利用局部统计特性解决特征过多的问题。填充(Padding):在输入图像的边界填充元素,通常填0或者复制边界元素,常用来保持卷积后的图像大小不变。步长(Stride):使卷积窗口每次滑动多个元素,默认步长为1,更改步长卷积后图像的大小也会相应的发生变化。3的卷积核,垂直和水平步长均为2,垂直方向上下各填充两个元素,水平方向左右各填充一个元素,卷积后无偏置。3,四周各填充一个元素,步长为2,默认情况下步长与窗口大小一致。
2023-03-26 20:50:06 74
原创 神经网络与深度学习——笔记1
单层感知机仅能解决线性可分问题,对于线性不可分问题(如XOR问题),可在输入和输出层之间加入一层或者多层隐藏层构成多层感知机,实现对非线性函数的近似,下图所示为含一个隐藏层的的多层感知机结构。如下图所示,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(前层至后层节点通过权联接)。,但与线性回归问题不同,线性分类问题的输出不是回归的具体值而是属于某个类的概率,相当于有K个线性回归网络(每个网络的输出仍为。单神经元模型如下图,有n个输入,输出为。
2023-03-19 22:07:40 87 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人