机器学习
AI让世界更懂你
计算机科学与技术专业博士,主要研究方向为人工智能、自然语言处理、大规模语言模型和对话系统等。曾与微软小冰、微软小娜共同工作。兴趣广泛,包括并不限于人工智能,心理学,认知科学,语言学,数学,天文学等。让我们一起和AI,改进世界!
展开
-
机器学习之朴素贝叶斯算法(1)
这已经是机器学习的第三种算法了。说起朴素贝叶斯,可能大家都不太清楚 是什么。但是如果学过概率论与数理统计,你可能对贝叶斯定理有所了解,但又记不清是在哪里。没错,这么重要的一个定理,在概率论与数理统计上面,只用了很小的一个篇幅来介绍它。这也不怪书,因为它的表达形式实在是太简单了。先来看一下它的数学表达形式:P(AB)=P(B|A)P(A)=P(A|B)P(B)没错,这就是贝叶斯定理。其实原创 2016-05-27 10:59:58 · 991 阅读 · 0 评论 -
Word2Vec的使用及java版运行解释及错误分析
最近由于要做一个工程性的近义词的工程,因此接触到了Word2Vec这个工具。Word2Vec是 Google 在 2013 年年中开源的一款将词表征为实数值向量的高效工具, 其利用深度学习的思想,可以通过训练,把对文本内容的处理简化为 K 维向量空间中的向量运算,而向量空间上的相似度可以用来表示文本语义上的相似度。Word2vec输出的词向量可以被用来做很多 NLP 相关的工作,比如聚类、找同原创 2016-09-02 18:56:31 · 6152 阅读 · 47 评论 -
迷信、强化学习与认知的若干思考
首先在这里祝大家情人节快乐!说到迷信,我们可能并不陌生,迷信作为一个已经被我们贴上颜色标签的词,我们每个人都会有特殊的反应。说到强化学习,我们可能也并不陌生,作为人工智能博弈类的常用方法,至今还并未纳入到传统的机器学习方法中。但我们这次既不从迷信这个哲学角度开始说起,也不从强化学习这个人工智能领域里说,我们这次从生理学与心理学的一个经典案例开始说起。对于生理上的强化学习最经典的案例莫过于巴原创 2017-02-14 21:16:44 · 349 阅读 · 0 评论 -
关于python的机器学习与数据挖掘的相关的包
数据库类别PythonRMySQLmysql-connector-python(官方)RMySQLOraclecx_OracleROracleRedisredisrredisMongoDBpymongoRMongo, rmong转载 2016-12-04 19:25:41 · 6621 阅读 · 0 评论 -
机器学习之近邻算法(1)
今天,先介绍一个关于机器学习的简单的内容。之所以简单,是因为这种算法是一种懒惰学习算法,他没有显式的训练方法,它在训练时只需要把样本保存起来即可,等到测试时再拿出来进行处理。相对应的,如果在训练阶段就对样本进行学习就称之为急切学习。近邻算法通常称之为K近邻算法。K是一个参数,决定了你判断的深度。这里先介绍一下它在我们日常生活中的应用形式,以便于大家的理解。稍后,我们再介绍具体的算法过程。夏原创 2016-05-22 16:26:13 · 817 阅读 · 0 评论 -
众包数据标注中的隐类别分析
0. 写在前面这时一篇关于田天、朱军的一篇论文的读后感和自己的一点思考。1. 众包众包(crowdsourcing)这个词,第一次听到还是众包数据库,是从老班长那里听到的。细想起来,我对外包(outsourcing)这个词更加熟悉。其实众包就是大家一起外包,把部分工作交给一批人去做,这就是众包。准确来说,“众包”一词最早由Howe和Mark Robingson在2006年美国《连线》发表的文章中提出原创 2017-04-13 21:22:56 · 6366 阅读 · 0 评论 -
神经网络之感知器与词向量
1. 写在前面本文并不是写词向量如何使用神经网络感知器训练出来的,而是对于词向量,如何使用神经网络模型。本文是入门级,高手可以跳过。2. 词向量自从word2vec火了以后,词向量就变得越来越重要,google的引文统计中,Word2vec的引文数量上万了(一篇3000多,一篇6000多)。那么word2vec到底有什么用?2.1 词的向量表示这个最重要的一点来源于计算语言学,因为我们自然语言处理对原创 2017-04-18 20:16:52 · 1639 阅读 · 1 评论 -
机器学习之决策树算法(1)
上一集中,我们讲解了K近邻算法,那是一个十分入门的算法,并没有显式的训练方法。这次,我们要做一个真正的机器学习算法,决策树算法。当然,它也是一个多元分类器。相比较K近邻算法对于数值型的数据处理较为舒服,因为毕竟是算距离,所以你就算是跑到天涯海角,也能算出来。但是决策树对于数值型的数据处理起来还是有些吃力,最好的话能有较少的几类标称数据才行。好的,闲话少说。我们进入正题,同样的,我们继续举例子,原创 2016-05-24 10:15:12 · 1595 阅读 · 0 评论