![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自然语言处理
2014乘风破浪2014
技术,没有止境
展开
-
(一)写在前面的话
研究生涯的方向是自然语言处理,渣渣看着师兄师姐出神入化的学习成果深表钦佩,低头想想自己何时也能到达如此水平,甚至更高一筹?还有各种paper,毕业要求,还能达到么?路是一步一步走的,台阶当然也得一步一步上,恩,不管本渣离他们多远,我会试着努力靠近的。就让此博客见证本人成长的历程,好,走起!原创 2017-11-02 09:56:58 · 392 阅读 · 0 评论 -
强化学习(五)——Sarse和Q-learning
前言Sarse和Q-learning: 类属于时序差分方法,因此就不难理解,两者对价值函数的更新公式中,都是先对当前时刻的收获G(t)G(t)G(t)进行了近似。此外,两种方法也都是属于无模型的强化学习,即agent对环境的状态转移概率是未知的,需要与环境互动。其中,Sarse是时序差分在线控制算法,Q-learning是时序差分离线控制算法。离线算法和在线算法:判断的依据是生成样本的pol...原创 2019-04-29 11:17:41 · 1484 阅读 · 0 评论 -
强化学习(四)——蒙特卡洛和时序差分
强化学习中有两类问题,一是预测问题,即已知,二是控制问题,即。TD有偏差,但方差小MC无偏差,但方差大偏差:预测值与真实值之间的差距 方差:预测值与期望之间的差距,关注预测值的离散程度。...原创 2019-04-27 19:51:48 · 3159 阅读 · 0 评论 -
强化学习(六)——策略梯度Policy Gradient
本篇文章主旨不在从头讲述PG,而是通过综合别人的总结,写出自己的理解。按照指出的这些引用,消除那些疑惑的地方。首先放一张图,先明确强化学习中有哪些方法,策略梯度又处在怎样的位置。On-line代表,agent必须和环境交互,一边选取动作一遍学习;Off-line代表,agent既可以直接与环境交互进行学习,也可以从别人的经验里学习。基础&入门了解PG:https://www.cnbl...原创 2019-04-25 22:31:00 · 2328 阅读 · 0 评论 -
论文阅读:《Neural Machine Translation by Jointly learning to Align and Translation》
Introduction前人的很多工作都是将神经网络作为传统机器翻译的部件,本篇论文是将神经网络作为一个独立的系统,该系统目标是直接将句子翻译为正确的译文。之前关于encoder-decoder模型的弊端是,将所有源句子的所有信息压缩为一个固定长度的向量。 该做法导致神经网络无法很好地处理训练集中的长句子。除此之外,已经有论文证明,基础的encoder-decoder模型随着输入句子长度增...原创 2018-11-26 18:58:55 · 378 阅读 · 0 评论 -
概率论复习(一):随机变量,分布函数,概率密度
随机试验可以在相同条件下重复进行每次实验的实验结果可能不止一个,而且事先可以明确实验的所有可能结果进行一次实验之前,不能确定哪个结果会出现。随机变量来源:某些随机试验的结果可以用数表示,如每个月的平均降水量,有些随机实验因为样本空间元素不是一个数,无法用数表示。为了将随机实验的结果和实数对应起来,引入随机变量。定义:随机变量是定义在样本空间的实值单值函数。例如,在抛硬币问题...原创 2018-08-15 20:06:03 · 10664 阅读 · 0 评论 -
强化学习(一)——简介
前言本文适合强化学习新手,主要介绍强化学习的基本概念。什么是增强学习增强学习关注的是智能体如何在环境中采取一系列行为,通过不断试错和探索(SequentialDecisionMaking" role="presentation">SequentialDecisionMakingSequentialDecisionMakingSequential Decision Maki原创 2017-11-17 16:31:05 · 3053 阅读 · 1 评论 -
实验——wiki训练词向量
前言下面的步骤是个人实验过程。亲测可行,实验结果是利用维基百科的数据训练了100维的词向量,已完成的词向量分享给大家。附下载链接。大家也可按照实验步骤自行尝试。数据下载我们使用维基百科训练词向量。附:维基百科数据下载地址抽取wiki正文内容下载下来的wiki是XML格式,需要提取其正文内容。无论是python2.7还是3.X版本,我们都可以使用一个开源的解压项目来抽取数据正原创 2018-01-23 11:22:43 · 2677 阅读 · 0 评论 -
深度学习——优化算法
为什么需要优化算法优化算法可以加快收敛速度(未加入优化的神经网络训练时间比加入优化后时间更短),甚至得到一个更好更小的损失函数值。优化算法能帮你快速高效地训练模型。有哪些优化算法Mini-Batch 梯度下降Momentum 动量梯度下降法RMSpropAdam 提升算法其中Adam提升算法是Momentum和RMSprop两种相结合的算法,接下来我们会依次介绍这四种算法。Mini-Bat原创 2018-01-03 15:19:28 · 17492 阅读 · 0 评论 -
隐马尔科夫模型——学习算法
前言隐马尔科夫模型有三个基本问题:概率计算问题,学习问题,预测问题。本博客介绍学习问题的监督学习算法和非监督学习算法(EM算法)。阅读本文前请先学习基本概念。什么是学习问题 学习问题是一直观测序列O=(o1,o2,...,oT)O=(o_1,o_2,...,o_T),估计模型λ=(A,B,π)\lambda=(A,B,\pi)参数,使得在该模型下观测序列概率P(O|λ)P(O|\lambda)最原创 2017-12-23 12:41:08 · 659 阅读 · 0 评论 -
隐马尔科夫模型——前向后向算法
前言隐马尔科夫模型有三个基本问题:概率计算问题,学习问题,预测问题。本博客介绍概率计算问题的前向与后向算法。阅读本文前请先学习隐马尔科夫模型——基本概念什么是概率计算问题 给定模型λ=(A,B,π)\lambda=(A,B,\pi)和观测序列O=(o1,o2,...,oT)O=(o_1,o_2,...,o_T),计算在模型下观测序列O出现的概率P(O|λ)P(O|\lambda)结合先前讨论的原创 2017-12-22 21:26:10 · 703 阅读 · 0 评论 -
隐马尔科夫模型——维特比算法
前言隐马尔科夫有三个基本问题:概率问题、学习问题、预测问题。本文主要讨论预测问题的解法——维特比算法。阅读本文的前提是已经明白什么是隐马尔科夫模型(三要素、基本假设)。本文的所有符号及解释,请查看上一篇博客:隐马尔科夫模型——基本概念什么是预测问题预测问题又称之为解码问题,是指:已知状态转移矩阵、观测矩阵和观测序列,求该序列下最有可能的状态序列。 已知模型λ=(A,B,π)\lambda=(A,原创 2017-12-21 19:24:26 · 741 阅读 · 0 评论 -
隐马尔科夫模型——基本概念
前言本文介绍了什么是隐马尔科夫模型及其基本概念。学习资料来自李航《统计学习方法》和网络博客。通过举例加深对模型的理解,阅读本文可以完全掌握隐马的基本原理和符号表示。什么是隐马尔科夫数学定义 隐马尔科夫模型由初始概率分布、状态转移概率分布以及观测概率分布确定。隐马尔科夫模型λ\lambda可以用三元符号表示:λ=(A,B,π)\lambda=(A,B,\pi)其中A,B,λA,B,\lambda被原创 2017-12-21 20:43:20 · 764 阅读 · 0 评论 -
强化学习(二)——MDP:马尔科夫决策过程
前言本文主要采用了David Silver的RL授课ppt(个人认为英文的ppt比中文更加生动准确),与个人听课理解总结。本文详细地介绍了马尔科夫决策相关理论和目标。读懂本文的前提是已经掌握理解了上一节:http://blog.csdn.net/wqy20140101/article/details/78562890 ok,我们开始吧!马尔科夫状态在我们所处的环境中,接下来会发生什么事情,只取决于上原创 2017-11-20 16:17:08 · 1275 阅读 · 0 评论 -
强化学习(三)——动态规划解决MDP
前沿能够用动态规划解决的问题需要满足一下两个特性:最优化结构:将某些整体性问题分解成两个或多个子问题。在得到这些问题的最优解后,我们也就知道了该整体问题的最优解。例如:最短路径问题。重叠子问题:子问题是在不断重复的,这样我们就可以分解后解决问题。我们的MDP问题满足贝尔曼方程。这个方程是一个递归的过程,正因为该方程,我们的MDP问题满足这两个特性。当前是最优步,以后仍旧选择最优步。原创 2017-11-20 20:03:31 · 869 阅读 · 0 评论 -
分词工具实验(代码示例)
1. 哈工大语言云(python) 功能和形式都很多样化,准确率也很高,但依赖网络,识别速度慢。# -*- coding: utf-8 -*-"""功能:哈工大语言云使用测试时间:2017年11月14日"""import urllib2url_get_base = "http://api.ltp-cloud.com/analysis/?"api_key = '# 输入注册API_KEY'#原创 2017-11-14 17:17:45 · 357 阅读 · 0 评论 -
元学习——meta-learning
前言称不上多熟悉这个领域,毕竟还没有系统调研。最近读了两篇论文,权当总结。学习优化器简介 : 在这种方法中,一个网络(元学习器meta-learner)学习更新另一个网络(学习器learner),以便学习器高效地学习任务。为了更好地优化神经网络,人们对这种方法进行了广泛的研究。元学习器通常是循环网络,以便记住之前是如何校正学习器模型的.论文:OPTIMIZATION AS A MODEL ...原创 2019-05-05 18:17:29 · 4402 阅读 · 4 评论