博客专栏  >  架构   >  机器学习&深度学习

机器学习&深度学习

机器学习&深度学习

关注
7 已关注
25篇博文
  • 隐马尔可夫模型的Viterbi解码算法

    前言前面在做自然语言处理时涉及到一些词性标注的工作,一般会使用隐马尔科夫模型(HMM)来实现词性标注,而HMM模型的解码实现算法一般就会使用Viterbi算法。关于穷举法HMM模型有多种应用,这里说的...

    4天前 08:42
    312
  • TensorFlow实现seq2seq

    前言前面在《深度学习的seq2seq模型》文章中已经介绍了seq2seq结构及其原理,接下去这篇文章将尝试使用TensorFlow来实现一个seq2seq网络结构,该例子能通过训练给定的训练集实现输入...

    2017-09-14 10:46
    530
  • 深度学习的seq2seq模型

    从rnn结构说起根据输出和输入序列不同数量rnn可以有多种不同的结构,不同结构自然就有不同的引用场合。如下图, one to one 结构,仅仅只是简单的给一个输入得到一个输出,此处并未体现序列的特征...

    2017-09-07 16:21
    457
  • TensorFlow构建循环神经网络

    前言前面在《循环神经网络》文章中已经介绍了深度学习的循环神经网络模型及其原理,接下去这篇文章将尝试使用TensorFlow来实现一个循环神经网络,该例子能通过训练给定的语料生成模型并实现对字符的预测。...

    2017-08-29 16:06
    448
  • 如何用TensorFlow训练词向量

    前言前面在《谈谈谷歌word2vec的原理》文章中已经把word2vec的来龙去脉说得很清楚了,接下去这篇文章将尝试根据word2vec的原理并使用TensorFlow来训练词向量,这里选择使用ski...

    2017-08-24 15:21
    1473
  • GRU神经网络

    前面已经详细讲了LSTM神经网络(文末有链接回去),接着往下讲讲LSTM的一个很流行的变体。GRU是什么GRU即Gated Recurrent Unit。前面说到为了克服RNN无法很好处理远距离依赖而...

    2017-08-17 15:19
    715
  • 谈谈谷歌word2vec的原理

    word2vec在NLP领域中,为了能表示人类的语言符号,一般会把这些符号转成一种数学向量形式以方便处理,我们把语言单词嵌入到向量空间中就叫词嵌入(word embedding)。谷歌开源的word2...

    2017-08-10 20:14
    1989
  • LSTM神经网络

    LSTM是什么LSTM即Long Short Memory Network,长短时记忆网络。它其实是属于RNN的一种变种,可以说它是为了克服RNN无法很好处理远距离依赖而提出的。我们说RNN不能处理距...

    2017-08-03 21:21
    832
  • 循环神经网络

    RNN是什么循环神经网络即recurrent neural network,它的提出主要是为了处理序列数据,序列数据是什么?就是前面的输入和后面的输入是有关联的,比如一句话,前后的词都是有关系的,“我...

    2017-07-28 19:38
    670
  • 卷积神经网络

    什么是卷积首先看卷积公式y(t)=f(t)∗g(t)=∫∞−∞f(u)g(t−u)duy(t)=f(t)*g(t)=\int_{-\infty} ^{\infty} f(u)g(t-u)du它是通过...

    2017-07-24 18:17
    594
  • softmax的多分类

    关于多分类我们常见的逻辑回归、SVM等常用于解决二分类问题,对于多分类问题,比如识别手写数字,它就需要10个分类,同样也可以用逻辑回归或SVM,只是需要多个二分类来组成多分类,但这里讨论另外一种方式来...

    2017-07-13 17:38
    982
  • kmeans实现文本聚类

    需求拿到的需求是输入n个文本,对文本进行聚类,由于这些输入不能通过历史数据进行训练,所以这个主要就是用无监督学习来解决。kmeans谈到聚类就会想到kmeans,它的核心思想是给定的K值和K个初始质心...

    2017-06-22 20:13
    831
  • 开源一个文本分析项目

    Githubhttps://github.com/sea-boat/TextAnalyzerTextAnalyzera text analizer that can analyze text. so ...

    2017-06-12 18:18
    989
  • 神经网络的交叉熵损失函数

    常见损失函数 0-1损失函数 L(Y,f(X))={1,0Y != f(X)Y = f(X)L(Y,f(X))=\begin{cases}1,& \text{Y != f(X)}\\0& \text...

    2017-07-04 18:07
    888
  • 如何用机器学习对文本分类

    需求使用监督学习对历史数据训练生成模型,用于预测文本的类别。样本清洗主要将重复的数据删除掉,将错误无效的数据纠正或删除,并检查数据的一致性等。比如我认为长度小于少于13的数据是无效的遂将之删掉。def...

    2017-05-30 20:21
    517
  • 机器学习之神经网络

    多层神经网络前面说到的感知器是一种最基础的神经网络,他只有输入层和输出层,感知器只能处理线性可分问题,而对于非线性问题就需要多层神经网络。一般如下图所示,有多个层,比如左边的包含输入层、隐层和输出层,...

    2017-05-18 19:23
    735
  • 机器学习之感知器

    感知器在讲神经网络前先说说感知器,感知器是一种二分类的线性分类模型,输出值取-1或1。感知器是最基础的神经网络,理解好感知器对后面的各种神经网络模型是很有帮助的。如下图, 它可以有多个输入$(x_1...

    2017-05-04 14:37
    554
  • 机器学习之k近邻

    核心思想KNN算法假设给定的训练集中的实例都已经分好类了,对于新的实例,根据离它最近的k个训练实例的类别来预测它的类别。即这k个实例大多数属于某个类别则该实例就属于某个类别。比如k为5,离新实例a最近...

    2017-04-28 20:36
    738
  • TensorFlow训练Logistic回归

    Logistic回归在用线性模型进行回归训练时,有时需要根据这个线性模型进行分类,则要找到一个单调可微的用于分类的函数将线性回归模型的预测值关联起来。这时就要用到逻辑回归,之前看吴军博士的《数学之美》...

    2017-04-22 20:05
    2988
  • 机器学习之朴素贝叶斯分类

    朴素贝叶斯分类所有贝叶斯分类都是基于贝叶斯定理,朴素贝叶斯分类是贝叶斯分类中运用广泛简单的一种,另外,它还基于特征条件独立假设。贝叶斯定理贝叶斯定理是计算条件概率的公式,条件概率即是事件B发生的前提下...

    2017-04-11 19:59
    1612

JDK源码
1764819
lucene深入剖析
00
mysql协议
2022895
Hazelcast
522350
通信框架Tribes
819811
集群
1756722
tomcat内核
80259358
Java并发
1957100
java开源研究
39138378

img博客搬家
img撰写博客
img专家申请
img意见反馈
img返回顶部