- 博客(8)
- 收藏
- 关注
原创 关于数据整理部分
目标:按照自己的mapping表设置标签步骤:1.将文本信息中的“|”转换为“ ”for s in lines:fp.write(s.replace(’|’,’ ‘).rstrip()+’\n’)#.rstrip()是去掉字符串中末尾的空格 .lstrip()是去掉字符串中首位的空格2.将每行的有效字符分割for ss in line0:fp.write(ss[0:15]+’ ‘...
2019-03-06 18:32:48 226
原创 CTC(Connectionist Temporal Classification)连接时序分类
CTC是一种用于序列建模的工具,训练样本无需对齐,其核心是定义了特殊的目标函数。CTC的原理CTC的训练过程CTC特点:引入blank字符,解决有些位置没有字符的问题通过递推,快速计算梯度,引入前后向计算方法...
2019-02-18 10:49:30 3469
原创 Batch Normalization
对数据做normalization预处理的目的就是使数据变换范围不太大。神经网络在训练时,标准化输入可以提高网络训练速度。由于在训练过程中的参数的变化会导致网络后续层的输入的分布发生变化,这种现象称之为internal covariate shift。网络训练的过程又要使每一层适应输入的分布,因此我们必须降低学习率,小心的初始化。Batch Normalization 的 batch 是批数据,...
2019-02-15 19:08:37 190
原创 (CPU)Anaconda3(4.3.30)+python(3.6.3)+tensorflow安装教程
1.清华大学开源软件镜像站下载anaconda(推荐),也可以去Anaconda官网https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/下载版本为:Anaconda3-5.0.1-Windows-x86_64.exe2、安装Anaconda推荐教程https://blog.csdn.net/u010858605/article/det...
2019-02-15 11:29:19 1094
原创 浅谈LSTM(long-short Time Memory)
LSTM存在三个门控,“记忆门”,“遗忘门”,“输出门”。它有一个特殊的状态就是细胞状态,类似一个“传送带”,信息在上面传输保持不变很容易,用来记忆之前的信息。细胞状态的更新来自记忆门和遗忘门以及上一时间刻的细胞状态。LSTM是为了解决RNN梯度消失的一种改进。LSTM可以理解为“延长短时记忆”,“遗忘门”表示遗忘上一时刻细胞状态的概率,(0:遗忘,1:记忆),即:它会根据当前时刻的输入,上一时刻...
2019-02-15 11:23:10 670
原创 RNN
浅谈对RNN网络的理解 1、RNN网络的结构及原理这是RNN经典网络结构,一句话解释RNN就是一个单元的重复使用,RNN(Recurrent Nerual Network)都在说rnn是在有序数据上执行的解决信息序列问题的。这里的“序列”究竟是神马??在识别一张图片时是怎么工作的??个人理解就是,如果给定一张大小为16*20的图片,在将图片看成序列时,序列的长度为20,每一时刻的...
2019-02-14 17:21:43 269 1
原创 ICDAR2017 数据下载艰辛历程
when i login ,the result is解决办法:重新申请一个新的邮箱在https://scriptnet.iit.demokritos.gr/competitions/8/1/重新登录跳转到可以下载的界面
2019-02-14 16:32:10 2633 2
原创 标题Win7+Anoconda+pytorch(CPU)
标题Win7+Anoconda+pytorch(CPU)1、 官网下载安装 Anaconda3-5.3.0-Windows-x86_64安装https://www.anaconda.com/download/2、 在Anoconda Prompt 安装pytorch(因为官方下载更新工具包的速度很慢,所以添加清华大学 TUNA提供的Anaconda仓库镜像,在终端中输入如下命令进行添加。)...
2018-10-23 12:14:20 281
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人