- 博客(10)
- 资源 (2)
- 收藏
- 关注
原创 python 常用
1. 文件操作按文件名从指定的文件目录(含子目录),搜索到文件,并拷贝到另一指定目录下# coding=utf-8 import os def search(path=".", name="1"): for item in os.listdir(path): item_path = os.path.join(path, item) if ...
2017-12-28 16:52:16 234
转载 opencv中感兴趣区域以及mask的使用
在图像处理的过程中,我们时常需要对指定区域或目标进行操作,这个区域我们称之为感兴趣区域。在学习opencv的初级阶段,对于感兴趣区域的操作方法是必须要掌握的。比如下图:我们获取到一帧图像Img,它里面有两个目标,一个蓝色块和一个红色块,我们一般会经常碰到以下三种情况:(1)我们希望将Img中的蓝色目标提取出来并另存为一个图像;(2)我们希望将Img中不是
2017-12-29 15:46:22 772
转载 深入浅出最大似然估计
最大似然估计是利用已知的样本的结果,在使用某个模型的基础上,反推最有可能导致这样结果的模型参数值。深入浅出最大似然估计例子1:抽球举个通俗的例子:假设一个袋子装有白球与红球,比例未知,现在抽取10次(每次抽完都放回,保证事件独立性),假设抽到了7次白球和3次红球,在此数据样本条件下,可以采用最大似然估计法求解袋子中白球的比例(最大似然估计是一种“模型
2017-12-26 10:58:50 450
转载 CTC原理
不搞语音识别得人开这个论文确实有点费劲,结合上图,思考一下语音识别的场景,输入是一段录音,输出是识别的音素, 输入的语音文件的长度和输出的音素个数之间没有一一对应关系,通常将语音文件「分片」之后,会出现多对一的关系。这个场景在「翻译问题」和「OCR问题」中也普遍存在。本文的特点是,提出来一种end-to-end的方法,直接将语音转问音素。不需要添加规则/后处理等过程。文章目录 [展
2017-12-25 11:30:57 1899
转载 Attention - 之二
http://blog.csdn.net/zchang81/article/details/78425114最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽
2017-12-21 20:00:48 3526 2
转载 Attention - 一
/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/http://blog.csdn.net/malefactor/article/details/50550211 author: 张俊林 要是关注深度学习在
2017-12-21 19:59:13 310
转载 CTC 介绍
转载自 http://blog.csdn.net/luodongri/article/details/77005948CTC是计算一种损失值,主要的优点是可以对没有对齐的数据进行自动对齐,主要用在没有事先对齐的序列化数据训练上。比如语音识别、ocr识别等等。CTC算法有个经典的英文的论文,但是相信大多数人和我一样,第一次看了之后似懂非懂,而且论文中主要是公式,和
2017-12-21 11:31:18 878
转载 Sequence Modeling With CTC
Sequence ModelingWith CTCurl:https://distill.pub/2017/ctc/A visual guide to Connectionist Temporal Classification, an algorithm used to train deep neural networks in speech recognition, handwriting
2017-12-11 00:22:58 1670
转载 神经网络梯度消失的解释 发表于2016/10/6 11:08:30 10609人阅读 分类: 深度学习 转载自哈工大SCIR(公众号) 为了弄清楚为何会出现消失的梯度,来看看一个极简单的深度
神经网络梯度消失的解释http://m.blog.csdn.net/baidu_29782299/article/details/52742773转载自哈工大SCIR(公众号) 为了弄清楚为何会出现消失的梯度,来看看一个极简单的深度神经网络:每一层都只有一个单一的神经元。下图就是有三层隐藏层的神经网络:
2017-12-04 20:49:08 234
转载 RNN训练方法介绍-BPTT
url:http://blog.csdn.net/sysstc/article/details/75333008Training RNN——BPTT由于RNN和时间序列有关,因此我们不能通过Backpropagation来调参,我们使用的是Backpropagation through time(BPTT)回顾Backpropagation
2017-12-04 15:32:32 12031
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人