自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 神经网络与深度学习周总结四

然后,我们选择一个预训练的卷积神经网络来抽取图像的特征,其中的模型参数在训练中无须更新。NeRF(Neural Radiance Fields)最早在2020年ECCV会议上发表,作为Best Paper,其将隐式表达推上了一个新的高度,仅用 2D 的 posed images 作为监督,即可表示复杂的三维场景。这里我们需要两张输入图像,一张是内容图像,另一张是样式图像,我们可以使用神经网络修改内容图像使其在样式上接近样式图像。最后,当模型训练结束时,我们输出样式迁移的模型参数,即得到最终的合成图像。

2024-05-12 22:41:07 568

原创 神经网络与深度学习周总结三

AlexNet网络一共有8层可学习层,包括5层卷积层和3层全连接层,随网络深入,宽、高衰减,通道数增加。该网络提出了一种卷积层加全连接层的卷积神经网络结构,使用 ReLU 函数作为神经网络的激活函数,并验证 ReLU 效果在较深的网络超过了Sigmoid,通过使用ReLU解决了 Sigmoid 在网络较深时的梯度弥散问题。1.2VGG-16VGG由5层卷积层、3层全连接层、softmax输出层构成,层与层之间使用最大化池分开,所有隐层的激活单元都采用ReLU函数。

2024-04-23 10:54:16 982

原创 神经网络与深度学习周总结二

全连接网络本质上是把所有的输入与输出连接起来的单个交换机。具有吞吐量大、可靠性高、低延时的特点。由于链接权过多,算的慢,难收敛,同时可能进入局部极小值,也容易产生过拟合问题。为解决计算缓慢问题,减少权值连接,每一个节点只连到上一层的少数神经元,即局部连接网络。具体结构如图所示。由于权值过多极易产生过拟合,考虑将信息分层处理,每一层在上层提取特征的基础上获取进行再处理,得到更高级别的特征。1.2深度学习平台目前常见的深度学习平台如下所示,其中主要介绍PyTorch。PyTorch。

2024-04-08 22:29:46 770

原创 神经网络与深度学习周总结一

在统计学中,线性回归是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。学习过程如图所示。在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。线性模型中预测得到的结果会与真实结果存在一定偏差,即真实值与预测值之间的差值,我们评价一个线性模型拟合好坏则通过残差来判定。因此在学习过程中可以设置一个损失函数,并通过学习使得损失函数最小,从而得到最佳的线性回归模型。线性回归模型经常用最小二乘逼近来拟合。

2024-04-01 20:32:54 688 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除