![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 78
示木007
这个作者很懒,什么都没留下…
展开
-
【NLP】Transformer面试灵魂拷问
No.1原创 2021-09-07 19:33:36 · 235 阅读 · 0 评论 -
【深度学习】NLP|用GRU模型给周董写首歌
1、数据准备 最近经常看到网友对新闻的评论,好多评论都说编辑是越来越懒,文章都是让机器人写的,词不达意,语句不通都放上去,骂声一片。突发奇想,使用GRU模型训练一段文本,看能否预测出让大家看得懂的文本。 本人对周董的歌比较感兴趣,就收集到周董的歌词,下边就开始实现文本生成任务,让机器给周董写一首歪果仁(中国人估计也不是很懂哦,哇咔咔)听不懂的歌。1.1 导包from __future__ import absolute, division, print_function, unicode_lit原创 2021-08-28 20:40:15 · 539 阅读 · 0 评论 -
【Pytorch】NLP|文本数据分析代码实现
1、文本数据分析方法常用的几种文本数据分析方法:标签数量分布句子长度分布词频统计与关键词词云2、标签数量分布2.1 获取训练集和验证集的标签数量分布# 导入工具包import seaborn as snsimport pandas as pdimport matplotlib.pyplot as pltimport jiebaimport jieba.posseg as psegfrom itertools import chainfrom wordcloud impo原创 2021-08-20 20:41:26 · 1174 阅读 · 0 评论 -
深度学习:目标分割|UNet网络模型及案例实现
1 UNet网络架构UNet网络由左编码部分,右解码部分和下两个卷积+激活层组成编码部分从图中可知:架构中是由4个重复结构组成:2个3x3卷积层,非线形ReLU层和一个stride为2的2x2 max pooling层(图中的蓝箭头,红箭头)每一次下采样特征通道的数量加倍解码部分和编码层类似,反卷积也有4个重复结构组成每个重复结构前先使用反卷积,每次反卷积后特征通道数量减半,特征图大小加倍(绿箭头)反卷积之后,反卷积的结果和编码部分对应步骤的特征图拼接起来(白/蓝块)如果编原创 2021-08-15 10:07:12 · 12800 阅读 · 1 评论 -
深度学习:目标检测|YoLoV2学习总结
1 介绍 YoLoV2又叫YoLo9000,对比YoLoV1,它的识别对象增加到了9000个,预测种类增多,而且速度快,准确度高。下面,我们主要通过对比YoLoV1,学习YoLoV2在YoLoV1基础上做了哪些改进和提升。2 YoLoV22.1 YoLoV2模型结构...原创 2021-08-14 21:49:00 · 457 阅读 · 0 评论 -
深度学习:目标检测|YoLoV1算法
1、YoLo算法 YoLo 算法采用一个单独的CNN模型实现端到端的目标检测,利用整张图作为网络的输入,直接在输出层回归bounding box的位置及其所属的类别,结构如下图所示:图片resize成固定大小送入CNN网络,进行分类回归任务 YoLo算法和R-CNN算法不同之处就是YoLo算法是一个整体的框架(one-stage),而R-CNN是two-stage,需要提取候选框和目标分类回归两个步骤。1.1 算法思想 YoLo是You Only Look Once,不同于R-CNN原创 2021-08-12 15:48:46 · 549 阅读 · 0 评论 -
深度学习:目标检测|Faster-RCNN原理
1 基本结构原创 2021-08-10 19:31:46 · 1208 阅读 · 0 评论 -
深度学习:图像检测之非极大值抑制
1 介绍 非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素。例如在行人检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域里分数最高(是行人的概率最大),并且抑制那些分数低的窗口。 NMS在计算机视觉领域有着非常重要的应用,如视频目标跟踪、数据挖掘、3D重建、目标识别以及纹理分析等 。 在目标检测中,NMS的目的就是要去除冗原创 2021-08-03 19:36:41 · 652 阅读 · 1 评论 -
深度学习:图像分类之GoogLeNet
1.介绍 GoogLeNet的名字不是GoogleNet,而是GoogLeNet,这是为了致敬LeNet。GoogLeNet和AlexNet/VGGNet这类依靠加深网络结构的深度的思想不完全一样。GoogLeNet在加深度的同时做了结构上的创新,引入了一个叫做Inception的结构来代替之前的卷积加激活的经典组件。GoogLeNet在ImageNet分类比赛上的Top-5错误率降低到了6.7%。1.1 Inception块 GoogLeNet中的基础卷积块叫作Inception块,Incept原创 2021-08-01 09:18:26 · 3877 阅读 · 0 评论 -
深度学习:算法优化之动量算法(Momentum)
1.原理 运用物理学上的动量思想,在梯度下降的问题中引入动量项 mmm 和折扣因子 γ\gammaγ,公式为:mt=γmt+1m_t=\gamma m_{t+1}mt=γmt+1其中 mmm 是动量项mmm的指数加权平均后的值,γ\gammaγ表示历史梯度的影响力,也就是权重值,γ\gammaγ越大,权重越大。从直观上看,如果当前时刻的梯度与历史梯度方向趋近,这种趋势会在当前时刻加强,否则减弱。2.指数加权平均 在分析动量算法之前,我们先来了解指数加权平均的含义。假定给一个序列,例如北京一年每原创 2021-08-01 08:39:10 · 4700 阅读 · 1 评论 -
深度学习:优化算法之前向传播、链式法则和BP反向传播
1.前向传播1.1 概念 前向传播是指数据输入神经网络中,逐层向前传输,一直运算到输出层为止。 经过前向传播,得到的最终结果与真实值之间的误差,这个误差就是损失函数。1.2 前向传播运算以一个简单的神经网络为例,激活函数是:sigmoidneth1=w1i1+w2i2+b=0.15×0.05+0.2×0.1+0.35=0.3775net_{h1}=w_1i_1+w_2i_2+b=0.15\times0.05+0.2\times0.1+0.35=0.3775neth1=w1i1+w2原创 2021-07-29 09:23:22 · 497 阅读 · 0 评论