自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 Task 10

图像分类案例2 步骤: 整理数据集:下载并训练集中划分出验证集,来调整超参,两者放置到不同文件夹中。 图像增强:随机对图像裁剪出面积为原图像面积0.08~1 倍、且高和宽之比在3/4~4/3的图像,再放缩为高和宽均为224像素的新图像,以0.5的概率随机水平翻转,随机更改亮度、对比度和饱和度,对各个通道做标准化,(0.485, 0.456, 0.406)和(0.229, 0.224, 0.225)...

2020-02-25 13:28:48 126

原创 Task 9

目标检测基础 GoogLeNet:每个Inception块里有四条并行线路 目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边缘从而更准确地预测目标的真实边界框(ground-truth bounding box)。 锚框(anchor box)是以每个像素为中心生成多个大小和宽高比(aspect ratio)的边界框。对于n个大小s和m个宽高比...

2020-02-25 13:21:01 151

原创 Task 6

批量归一化 针对深层CNN。 利用小批量均值和标准差,不断调整神经网络的输出。 有两种情况: 全连接层 处理的位置在全连接层的线性仿射变换和激活函数之间。 令x=Wu+bx=Wu+bx=Wu+b,用该批次xxx的均值和标准差的对x进行处理,再导入激活函数。 卷积层 处理的位置在卷积计算之后,激活函数之前。 在实际操作中,全连接层的X_shape为2,卷积层的X_shape为4,需要分通道计算。如...

2020-02-25 12:41:15 71

原创 Task 7

优化算法进阶 进阶的算法中很多目的是为了逃离鞍点。 什么是梯度下降法? - 张戎的回答 - 知乎 https://www.zhihu.com/question/305638940/answer/606831354

2020-02-18 21:56:06 71

原创 Task5

卷积神经网络 主要概念有卷积层,池化层,填充,步幅,输入通道,输出通道等。 卷积层进行的是二维的互相关运算而非卷积运算。我们将kernel数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程才是卷积运算。由于卷积层的kernel是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。 特征图和感受野(receptive field)的概念。某一个特征图的点,其通过两次3×3和通过一次5×5...

2020-02-15 15:14:49 75

原创 Task4

机器翻译 又称MT,使用神经网络进行的机器翻译又称为神经机器翻译,NMT。特征有:输出单词序列;输出序列与输入序列可能不同。对应一道练习题,即机器翻译的模型,同样可以解决拥有类似特征的问题,比如机器人对话,语音翻译等。 开始的步骤有数据清洗。分词:字符串->单词组成的列表。词典Vocab:建立id到单词的索引和单词到id的索引。词典里特殊字符(special_tokens)包括等,其中为必有...

2020-02-14 22:29:36 82

原创 Task3

过拟合&欠拟合 我们使用测试集上的误差来近似泛化误差。所以不能在测试数据上调整参数,这样会造成完全的过拟合。 k折交叉验证会轮流留出一部分进行调参。 造成这些现象的有模型复杂度和训练数据集大小等因素。 欠拟合可能是由于模型复杂度不高。 一般有两种方法来应对过拟合: 权重衰减(L2范数正则化) Dropout(以一定概率丢弃隐藏单元)、 丢弃法中,隐藏单元有概率p会被丢弃,1-p概率被11...

2020-02-13 22:47:20 73

原创 Task2

文本预处理 即从文本到模型 读文本->分词->建立字典,建立索引->将文本转化为索引序列 函数tokenize()中返回的token是二元数组,将文本按行逐词拆碎 核心为Vocab类 在字典Vocab类中 确定了最低频率 建立了索引到token的映射 建立了token到索引的映射 语言模型 有基于统计和基于神经网络两种 n阶Markov链指某值只依赖于前n个值 n元语法即n-1阶...

2020-02-13 16:14:47 90

原创 Task1

线性回归 用来预测标签的因素称为特征 过程分为: 获取&读取数据 确定模型&模型参数 损失函数 优化算法 训练模型 绝大多数深度学习模型也是采用类似步骤 A⊙BA\odot BA⊙B被称为Hadamard积,其结果为元素按索引相乘 两个用张量做索引取值的函数: torch.gather(input, dim, index) 把input内容按index进行聚合 output形状同i...

2020-02-13 15:37:47 192

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除