自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 神经网络与深度学习课程笔记(四)

将文本数据转换成机器可以理解的形式,主要包括文本清洗、分词、停用词处理、词向量化等技术。常用的文本处理方法有词袋模型、TF-IDF等。这里我们需要两张输入图像,一张是内容图像,另一张是样式图像,我们将使用神经网络修改内容图像使其在样式上接近样式图像。值得一提的是,这些语义区域的标注和预测都是像素级的。与目标检测相比,语义分割标注的像素级的边框更加精细。将数据中的各种属性和特征转换成可供机器学习算法或其他统计分析方法处理的数值或向量形式。可以确定那些更有可能出现目标的位置,再有针对性的用CNN进行检测。

2023-04-14 16:35:04 40 1

原创 神经网络与深度学习课程笔记(三)

在传统的深度神经网络中,每一层的输入都是上一层的输出,多层堆叠后,模型的表达能力会随着层数增加而增强。为了解决这些问题,残差网络采用了“跳跃连接”(skip connection)的思想,即在网络中添加了一些额外的连接,使得信息可以绕过一些层,直接传递到更深层的网络中,从而避免了梯度消失和模型退化的问题。残差网络(Residual Network,ResNet)是一种深度神经网络的架构,它的出现主要是为了解决深度神经网络训练过程中的梯度消失和模型退化问题。普遍规律为随网络深入,高和宽衰减,通道数增多。

2023-04-04 12:13:52 36 1

原创 神经网络与深度学习课程笔记(二)

库名发布者支持语言支持系统TensorFlowGoogleCaffeJAXGooglePythonMXNetAmazon/DMLC(分布式机器学习社区)FacebookC/Python/…百度Python商汤/港中文Python库名学习材料丰富程度CNN建模能力RNN建模能力易用程度运行速度多GPU支持程度TensorFlow★★★★★★★★★★★☆★★☆★★★Caffe★★★★★★★★★★JAX★★★★★★★★★。

2023-03-26 20:40:05 35 1

原创 神经网络与深度学习课程笔记(一)

多层前馈网络的反向传播 (BP)学习算法,简称BP算法,是有导师的学习,它是梯度下降法在多层前馈网中的应用。线性分类器的输入是特征向量,输出是哪一类。如果是二分类问题,则为0和1,或者是属于某类的概率,即0-1之间的数。线性不可分问题:无法进行线性分类,解决方法为使用多层感知机:在输入和输出层间加一或多层隐单元。和回归方程一致,只是加了S函数,因此又称作softmax回归。线性回归要素:训练集、输出数据和模型。线性回归的目标是找到超平面参数。属于某类的概率<->回归具体值。,即构建一个序列,使。

2023-03-19 20:53:45 48 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除