自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

学习带来的快乐最持久~

学习带来的快乐最持久~

  • 博客(31)
  • 资源 (14)
  • 收藏
  • 关注

转载 【深度学习笔记】卷积的输入输出的通道、维度或尺寸变化过程

转载自 CNN中卷积层的计算细节卷积层尺寸的计算原理输入矩阵格式:四个维度,依次为:样本数、图像高度、图像宽度、图像通道数输出矩阵格式:与输出矩阵的维度顺序和含义相同,但是后三个维度(图像高度、图像宽度、图像通道数)的尺寸发生变化。权重矩阵(卷积核)格式:同样是四个维度,但维度的含义与上面两者都不同,为:卷积核高度、卷积核宽度、输入通道数、输出通道数(卷积核个数)输入矩阵、权重矩阵、输出矩阵这三者之间的相互决定关系卷积核的输入通道数(in depth)由输入矩阵的通道数所决

2020-07-17 10:21:51 41213 11

原创 【深度学习笔记】组卷积

Group convolution 分组卷积,最早在AlexNet中出现,由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一个GPU处理,因此作者把feature maps分给多个GPU分别进行处理,最后把多个GPU的结果进行融合。...

2020-07-28 20:50:18 128

原创 【深度学习笔记】标准卷积

举个例子,假设有一个3×3大小的卷积层,其输入通道为16、输出通道为32。那么一般的操作就是用32个3×3的卷积核同输入数据来分别进行卷积操作,这样每个卷积核需要3×3×16个参数,得到的输出是只有一个通道的数据。之所以会得到一通道的数据,是因为刚开始3×3×16的卷积核的每个通道(一共16个)会在输入数据的每个对应通道上做卷积,然后叠加每一个通道对应位置的值,使之变成了单通道,那么32个卷积核一共需要(3×3×16)×32 =4068个参数。也就是说,在每次卷积操作中,多卷积核所有16个通道 只针

2020-07-28 19:57:03 1146

原创 【深度学习笔记】常见的图像增强方法:scaling、rotating、flipping、random cropping

scaling缩放。FlipFlip是翻转的意思,也被称为镜像变换。又可以分为水平镜像和垂直镜像,水平镜像即将图像左半部分和右半部分以图像竖直中轴线为中心轴进行兑换,而竖直镜像则是将图像上半部分和下半部分以图像水平中轴线为中心轴进行兑换。注意,这个和旋转有着本质的区别。Rotate图像旋转是指图像以某一点为中心旋转一定的角度,形成一幅新的图像的过程。当然这个点通常就是图像的中心。既然是按照中心旋转,自然会有这样一个属性:旋转前和旋转后的点离中心的位置不变。crop裁剪图像的仿射变换Af

2020-07-25 11:25:28 2152

原创 【NLP学习笔记】conda换源

一、windows系统下1. 添加清华源conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2conda config --add channels https://mirrors.tuna.tsingh

2020-07-24 08:21:46 187

原创 【NLP学习笔记】训练集、验证集和测试集的概念及划分

一、概念训练集:用于训练的样本集合,主要用来训练神经网络中的参数。验证集:用于验证模型性能的样本集合。不同神经网络在训练集上训练结束后,通过验证集来比较判断各个模型的性能.这里的不同模型主要是指对应不同超参数的神经网络,也可以指完全不同结构的神经网络。测试集:对于训练完成的神经网络,测试集用于客观的评价神经网络的性能。二、深入理解他们之间的区别神经网络在网络结构确定的情况下,有两部分影响模型最终的性能,一是普通参数(比如权重w和偏置b),另一个是超参数(例如学习率,网络层数)。普通参数我们

2020-07-21 12:11:01 6865

原创 【NLP学习笔记】NLP基础知识框架图

为了形成完整的知识体系架构,个人自行整理了NLP领域的基础知识的架构图,仅供参考

2020-07-16 22:23:34 1761

原创 【NLP学习笔记】词共现矩阵

词共现矩阵定义通过统计一个事先指定大小的窗口内的word共现次数,以word周边的共现词的次数做为当前word的vector。具体来说,我们通过从大量的语料文本中构建一个共现矩阵来定义word representation。例子有语料如下:I like deep learning.I like NLP.I enjoy flying.则其共现矩阵如下:将共现矩阵行(列)作为词向量表示后,可以知道like,enjoy都是在I附近且统计数目大约相等,他们意思相近。矩阵定义的词向量在一定程度

2020-07-16 22:02:53 4123

原创 【Python学习笔记】lambda表达式

lambda表达式主要用于短小的回调函数。形如:lambda arg1[,arg2][,arg3][...]: expression说明:arg1[,arg2][,arg3][…]为参数列表。expression表达式语句中不能出现多条语句。lambda应用举例:求和lamd = lambda x, y: x + yprint(lamd(10, 222))...

2020-07-16 16:31:44 194

原创 【Python学习笔记】切片x[::2] 理解

python中符合序列的有序序列都支持切片,例如列表、字符串、元祖。中括号中的参数意义分别是:[开始索引:结束索引:步长]例如x=[1,2,3,4,5,6],则x[1::2]=[2,4,6]第一个位置为空,默认为0第二个位置为空,默认为最后一个元素位置第三个元素为空,默认步长为1当步长取负值的时候,表示的是 逆序 !...

2020-07-16 11:38:23 13164

原创 【NLP学习笔记】tf.keras基础:对于层(layers)的操作 +对模型(Model)的操作

对于层(layers)的操作layer.get_weights() #返回该层的权重layer.set_weights(weights)# 将权重加载到该层config = layer.get_config()# 保存该层的配置layer = layer_from_config(config)# 加载一个配置到该层# 该层有一个节点时,获得输入张量、输出张量、及各自的形状:layer.inputlayer.outputlayer.input_shapelayer.output_shape

2020-07-15 14:52:54 750 1

原创 【深度学习笔记】Tensorflow中dense(全连接层)各项参数

定义dense( inputs, units, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=tf.zeros_initializer(), kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, trainable=True,

2020-07-15 14:18:05 3737

原创 【深度学习笔记】卷积核weights参数shape说明

weights = tf.get_variable('weights', shape=[3, 3, 3, 16], dtype=tf.float32, initializer=tf.truncated_normal_initializer(stddev=0.1, dtype=tf.float32))sh

2020-07-15 14:07:21 1522

原创 【工具使用】如何去掉CSDN-markdown编辑器中图片的水印

水印示例如下图右下角(还未去除水印,),每次我们在markdown中插入图片时,csdn会自动给我们加上水印,本人觉得这样苏海了阅读体验,于是决定解决这一个小瑕疵。解决方法经过本人对图片的连接进行了分析,以及多次尝试,最后找到了解决方案:那就是直接删除掉图片连接中的一个字段即可。下面举一个例子说明我的方法:原始的图片的链接格式为:![在这里插入图片描述](https://img-blog.csdnimg.cn/2020071311572666.png?x-oss-process=image

2020-07-13 12:16:34 430

原创 【NLP学习笔记】word2vec

简而言之,word2vec模型本质上是一个简化的神经网络。

2020-07-13 11:51:49 677

原创 【NLP学习笔记】One-hot encoding:独热编码

一、存在问题在机器学习算法中,特征并不总是连续值,常会遇到分类特征是离散的、无序的。例如:性别有男、女,城市有北京,上海,深圳等。离散特征的编码分为两种情况:离散特征的取值之间没有大小的意义,比如color:[red,blue],那么就使用one-hot编码离散特征的取值有大小的意义,比如size:[X,XL,XXL],那么就使用数值的映射{X:1,XL:2,XXL:3}性别特征:[“男”,“女”] = [ 0,1 ]地区特征:[“北京”,"上海,“深圳”] = [ 0,1,2 ]工作特

2020-07-13 10:44:55 3971 1

原创 【NLP学习笔记】文本分类概述

文本分类问题给定文档p(可能含有标题t),将文档分类为n个类别中的一个或多个。文本分类应用常见的有垃圾邮件识别、情感分析、新闻文本分类。文本分类方向主要有二分类,多分类,多标签分类。文本分类方法传统机器学习方法(贝叶斯,svm等),深度学习方法(fastText,TextCNN等)。文本分类流程文本分类的处理大致分为文本预处理、文本特征提取、分类模型构建等。和英文文本处理分类相比,中文文本的预处理是关键技术。参考资料[1] 文本分类概述(nlp).[] [] [] [] [

2020-07-12 10:37:04 942 1

原创 【NLP学习笔记】余弦相似度

一、问题:计算两个句子之间的相似度**基本思路:**如果这两句话的用词越相似,它们的内容就应该越相似。因此,可以从词频入手,计算它们的相似程度。二、步骤第一步,分词。第二步,列出两个句子所有的不重复的词。第三步,计算词频(TF)。第四步,写出各个句子的词频向量。第五步,计算这两个向量的相似程度。由此可见,句子的相似程度可以使用余弦相似度来进行计算。三、余弦相似度的原理我们可以把上述两个向量想象成空间中的两条线段,都是从原点([0, 0, …])出发,指向不同的方向。两条线段之间形成一

2020-07-11 21:28:33 860

原创 【NLP学习笔记】文本相似度计算——判断两篇文章是否相似

一、算法流程(1)使用TF-IDF算法,提取出两篇文章的关键词;(2)每篇文章各取出若干个关键词(比如20个),合并成一个集合,计算每篇文章对于这个集合中的词的词频(为了避免文章长度的差异,可以使用相对词频);(3)生成两篇文章各自的词频向量;(4)计算两个向量的余弦相似度,值越大就表示越相似。...

2020-07-11 21:15:47 2099 2

原创 【NLP学习笔记】TF-IDF

TF-IDF原理、及其优缺点分析

2020-07-11 16:55:03 1987

原创 【深度学习笔记】卷积的基础知识

先定一个目录或者框架,近段时间比较忙,后面会逐渐将除骨架之外的血肉补充完整。1 通道:channelchannels 主要分为三种:最初输入的图片样本的 channels ,取决于图片类型,比如RGB;卷积操作完成后输出的 out_channels ,取决于卷积核的数量。此时的 out_channels 也会作为下一次卷积时的卷积核的 in_channels;卷积核中的 in_channels ,刚刚2中已经说了,就是上一次卷积的 out_channels ,如果是第一次做卷积,就是1中样本图片

2020-07-10 08:33:25 154

原创 【深度学习笔记】卷积的原理

1 卷积尺寸变化输出尺寸=(输入尺寸-filter尺寸+2*padding)/stride+1宽和高都是这么计算的;举个例子说明卷积是如何计算的:输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,最终输出的特征图大小为:97。计算尺寸不被整除只在Goo

2020-07-10 08:22:36 729

原创 【NLP学习笔记】词向量的预训练

深入理解——词向量的预训练

2020-07-09 11:48:05 405

原创 【NLP学习笔记】使用jieba实现关键词提取

1 关键词提取jieba 提供了两种关键词提取方法,分别基于 TF-IDF 算法和 TextRank 算法。4.1 基于 TF-IDF 算法的关键词提取TF-IDF(Term Frequency-Inverse Document Frequency, 词频-逆文件频率)是一种统计方法,用以评估一个词语对于一个文件集或一个语料库中的一份文件的重要程度,其原理可概括为:一个词语在一篇文章中出现次数越多,同时在所有文档中出现次数越少,越能够代表该文章计算公式:TF-IDF = TF * IDF,其中

2020-07-09 10:52:38 820

原创 【python学习笔记】jion()函数和split()函数

1 join()方法1.1 描述Python join() 方法用于将序列中的元素以指定的字符连接生成一个新的字符串。1.2 语法join()方法语法:sep.join(seq)1.3 参数seq – 要连接的元素序列。sep – 制定的字符。1.3.1 参数说明sep:分隔符。可以为空seq:要连接的元素序列、字符串、元组、字典上面的语法即:以sep作为分隔符,将seq所有的元素合并成一个新的字符串1.4 返回值返回通过指定字符连接序列中元素后生成的新字符串。1.

2020-07-08 21:12:42 434

原创 【论文阅读笔记】Convolutional Neural Networks for Sentence Classification

1 概览Convolutional Neural Networks for Sentence Classification 的 原文,本文将CNN和NLP结合;介绍了一系列的对比实验,实验结果证明了:一个简单的(单层神经网络)的CNN模型一点超参数的调节(Filter的个数)static word vector另外,对cnn模型进行了小改动:将static vectors和non static vectors变成cnn模型中的两个channels,类似于图像中的rgb三通道。non-st

2020-07-08 11:01:23 974

原创 【论文阅读笔记】文本分类论文汇总

名字时间会议类型个人评分Convolutional Neural Networks for Sentence Classification2014EMNLPshort paper9

2020-07-06 16:47:50 309

原创 【论文阅读笔记】Graph Convolutional Networks for Text Classification

目录1 原文2 针对问题3 模型 / 方法3.1 Text GCN4 实验结果5 讨论6 结论1 原文Graph Convolutional Networks for Text Classification源码2 针对问题文本分类是自然语言处理中一个常见的基础问题。我们常用的文本表示方法有CNN,RNN,LSTM等等。这些模型会优先考虑文本的顺序信息和局部信息,能够很好的捕获连续词序列中的语义和语法信息,但是它忽略了全局的词共现,词共现中携带了不连续以及长距离的语义信息。3 模型 / 方法使用

2020-07-06 10:40:54 1395

转载 【转载】炼丹实验室:深度学习网络调参技巧

转载自:炼丹实验室:深度学习网络调参技巧深度学习网络调参技巧好的实验环境是成功的一半画图从粗到细分阶段调参提高速度超参数范围经验参数自动调参总结参考资料好的实验环境是成功的一半由于深度学习实验超参众多,代码风格良好的实验环境,可以让你的人工或者自动调参更加省力,有以下几点可能需要注意:将各个参数的设置部分集中在一起。如果参数的设置分布在代码的各个地方,那么修改的过程想必会非常痛苦。可以输出模型的损失函数值以及训练集和验证集上的准确率。可以考虑设计一个子程序,可以根据给定的参数,启动训练并监控和

2020-07-04 17:55:49 377

原创 【深度学习笔记】文本分类

深度学习经验借鉴1 模型显然并不是最重要的2 理解你的数据3 超参调节4 一定要用 dropout5 未必一定要 softmax loss6 类目不均衡问题7 避免训练震荡1 模型显然并不是最重要的好的模型设计对拿到好结果的至关重要,也更是学术关注热点。但实际使用中,模型的工作量占的时间其实相对比较少。虽然再第二部分介绍了5种CNN/RNN及其变体的模型,实际中文本分类任务单纯用CNN已经足以取得很不错的结果了,我们的实验测试RCNN对准确率提升大约1%,并不是十分的显著。最佳实践是先用TextCNN模

2020-07-04 17:34:25 311

原创 【深度学习笔记】卷积层,全连接层,池化层的相关输出参数计算

目录1 说明2 全连接层FC,全连接NN3 卷积Convolutional4 参考1 说明kernel == filterfeature map ×n == outputDepth == channel符号参数说明Wi / Hi / CiWidth / Height / Depth of inputWWidth of feature mapHHeight of feature mapDDepth of feature mapFSzie

2020-07-02 11:04:45 2132

NLP常用数据集.zip

NLP常用数据集:BosonNLP_NER_6C、Chinese-NLP-Corpus(NER:Weibo、People's Daily、MSRA;识别:BDCI_Car_2018)、CoNLL、OntoNotes-5.0-NER-BIO-master

2022-01-04

senna-v3.0.gz

NLP常用数据集--senna-v3.0

2022-01-04

endnote x9 使用手册.7z

Endnote是一款被广泛使用的文献管理软件,其是SCI(Thomson Scientific 公司)的官方软件,支持国际期刊的参考文献格式有3776 种【也可以自定义期刊引用格式】。 软件非常方便科研狗进行文献整理,写笔记,做备注,分类,导出期刊格式,进行数据迁移【这个特别方便,可以随时将其他电脑上的文献导入到自己的电脑中】 其实文献管理,你什么软件都不用都是可以的...但是对于需要大量看文献,需要对文献进行分类等功能时,Endnote无疑是最好用的之一。Endnote对英文文献的支持比较好,中文稍差,其他的文献管理软件像NoteExpress,我也用过,但是感觉上仍然觉得Endnote比较好。

2021-05-20

Cpu-Z 是一款计算机的CPU检测软件

Cpu-Z 是一款计算机的CPU检测软件。Cpu-Z适用于任意品牌和型号的监测工作,且检测的数据范围非常广泛、全面,将CPU涉及到的各个方面都以最直观的方式呈现给用户。

2020-11-15

一款轻量简洁的图片查看器

轻量而快速 可以显示包括 GPS 信息在内的 JPEG 格式的 EXIF 信息 对图像格式进行批量转换和调整 支持显示 GIF 和 WebP 动图 无需解压即可直接查看压缩包中的图像

2020-11-15

OBS-Studio-25.0.8-Full-Installer-x64.exe

OBS是GPL协议开源的一个项目,主要是用于直播,也可以用于屏幕录制,对于个人与商业,都是完全免费的,功能也比较齐全

2020-06-07

雨梦OCR文字提取 V3.91.zip

一款非常好用的文字提取以及翻译软件,下载即用,免安装。 截图提取文本|图片导入提取|文本自动合并|文本自动翻译|多个OCR接口 支持多种语言提取|支持百度,腾讯,谷歌翻译接口|自定义快捷键|支持只截图

2020-06-07

紫色风力箭头.rar

紫色风力鼠标箭头,这是一款动态的鼠标箭头,能够起到美化的效果,不再是单带哦枯燥的白色鼠标箭头。。

2020-01-13

致研究生|耶鲁教授阅读量最多的忠告.pdf

致研究生|耶鲁教授针对研究生给出的忠告:1.永远做好最坏的打算;2.没人来管你怎么办?3.必须清楚你研究工作的重要性之所在;4.心理问题是最大的障碍;5.课程问题;6.写一份研究计划并征求同行的 意见。

2020-01-13

Chinese-NLP-Corpus.zip

文本分类数据集(BDCI_Car_2018)、中文NER数据集(MSRA、People's Daily、Weibo)。

2020-01-13

DIAG-NRE:A Neural Pattern Diagnosis Framework

这是2019年ACL会议上面关于关系抽取的文章《DIAG-NRE:A Neural Pattern Diagnosis Framework for Distantly Supervised Neural Relation Extraction.》的译文

2019-08-08

SCI分区.docx

说分区之前要先了解下几个基本概念,SCI,Science Citation Index,科学引文索引,检索科技文献工具,被SCI收录的论文在一定程度上也代表相对高质量的论文。影响因子IF,Impact Factor,反映期刊文献被引用率的高低=期刊总引用次数 / 总文章数,用来说明期刊的影响力。JCR,Journal Citation Reports,期刊引证报告,汤森路透社每年对SCI收录的期刊进行引用和被引用数据进行统计计算,并以影响因子等指数加以报道形成的报告,用来评价期刊的质量。

2019-08-07

OCR可用的安全场景.pdf

本论文主要描述了OCR可用的安全场景

2019-08-03

学生信息管理系统

使用ASP.NET平台编写的学生信息管理系统,可以作为参考

2017-12-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除