自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 深度学习d8:图像分类案例2;GAN;DCGAN

图像分类案例2 与案例1不同,图像更高更宽,且尺寸不一。 切分验证集,更多的图像增广操作,定义模型时采取 “微调” 的思路。 GAN Generative Adversarial Networks (生成对抗神经网络) 生成式学习: 没有特征,给定数据集,学习这个数据集,然后生成一些数据(他们不属于这个数据集,但和这个数据集非常相似) 定义: 用判定模型来 提高生成模型的能力,分类器无法分...

2020-02-25 14:49:10 558 1

原创 深度学习d7:目标检测基础;图像风格迁移;图像分类案例1

目标检测基础 目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边缘从而更准确地预测目标的真实边界框(ground-truth bounding box)。 锚框 以每个像素为中心生成多个大小和宽高比(aspect ratio)不同的边界框。 生成多个锚框: 假设输入图像高为hhh,宽为www。我们分别以图像的每个像素为中心生成不同形状的锚...

2020-02-25 01:46:25 657

原创 深度学习d6:批量归一化和残差网络;凸优化;梯度下降

批量归一化(Batch-norm) 对深层神经网络来说,即使输入数据已做标准化,训练中模型参数的更新依然很容易造成靠近输出层输出的剧烈变化。 在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 批量归一化层 对全连接层 将批量归一化层置于全连接层中的仿射变换和激活函数之间。全连接层的输入为u\boldsymbo...

2020-02-24 15:10:39 891

原创 深度学习d5:卷积神经网络基础;leNet;卷积神经网络进阶

卷积神经网络基础 卷积神经网络:卷积层、池化层 二维卷积层:最常用,用处理图像数据,将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出,其模型参数=卷积核+标量偏置。卷积层中用互相关运算而非卷积运算,将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。 填充:在输入高和宽的两侧填充元素 步幅:卷积核在输入数组上滑动,每次滑动的行数与列数 多维数组:3hw 多输出通道:...

2020-02-18 00:43:12 491

原创 深度学习d4:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

机器翻译 指将一段文本从一种语言自动翻译到另一种语言 读取和预处理数据 # 将一个序列中所有的词记录在all_tokens中以便之后构造词典,然后在该序列后面添加PAD直到序列 # 长度变为max_seq_len,然后将序列保存在all_seqs中 def process_one_seq(seq_tokens, all_tokens, all_seqs, max_seq_len): a...

2020-02-18 00:41:09 314

原创 深度学习d3:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

欠拟合和过拟合 训练误差和泛化误差 训练误差 :训练集上的误差 泛化误差 :测试集上的误差 训练误差的期望小于或等于泛化误差,因为一直在训练训练集。训练误差的降低不等于泛化误差的降低。但机器学习的真正目的是降低泛化误差。 模型选择 验证集 :可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。如从给定的训练集中选一些做验证集。 ...

2020-02-17 15:34:12 776

原创 深度学习d2:文本预处理、语言模型、循环神经网络基础

文本预处理 步骤 读入文本 代码: import collections import re def read_time_machine(): #打开文本文件,创建文本对象f with open('/Users/wuruolan/Downloads/35-0.txt', 'r') as f: #每次处理文件的一行,strip函数去掉前缀、后缀的空格字符,lower函数把所有大写字母...

2020-02-14 17:36:19 353

原创 深度学习d1:线性回归、Softmax与分类模型、多层感知机

预备知识 自动梯度 MXNet提供autograd模块来自动化求导过程。可对一般的命令式程序进行求导。MXNet的运行模式包括训练模式和预测模式。我们可以通过autograd.is_training()来判断运行模式。 看模块有哪些函数和方法 dir函数from mxnet import nd print(dir(nd.random)) 查找特定函数和类的使用¶help(nd.one...

2020-02-13 17:42:37 1125

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除