关闭

神经网络为什么要归一化

作者:梁小h 转载自 http://nnetinfo.com/nninfo/showText.jsp?id=37 ========================这里是分割线============================ 1.数值问题。        无容置疑,归一化的确可以避免一些不必要的数值问题。输入变量的数量级未致于会引起数值问题吧,但其实要引起也...
阅读(1175) 评论(0)

梯度下降与delta法则

delta法则 尽管当训练样例线性可分时,感知器法则可以成功地找到一个权向量,但如果样例不是线性可分时它将不能收敛。 因此,人们设计了另一个训练法则来克服这个不足,称为 delta 法则(delta rule)。如果训练样本不是线性可分的,那么 delta 法则会收敛到目标概念的最佳 近似。  delta 法则的关键思想是使用梯度下降(gradient descent)来搜索可能权向...
阅读(1150) 评论(0)

一文弄懂神经网络中的反向传播法

最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果...
阅读(1153) 评论(0)

Python 任意中文文本生成词云 最终版本

前叙利用下面的代码你将可以将任意中文文本生成词云,其分词部分由jieba,NLPIR2016两个部分组成,生成词语由worldcloud负责,默认会自动发现文本中的20个新词并添加到词库中,当然你也可以手动添加或者通过txt添加用户词库.code中已经有十分详细的设置说明与代码解释,如果你想进一步学习其详细内容,你可以参考我在第二部分提供的博客列表想要进一步学习使用的参考博客列表Python词云 w...
阅读(1338) 评论(0)

Python NLPIR2016 与 wordcloud 结合生成中文词云

前叙该博文继承之前的文章,进一步介绍NLPIR2016的使用,三个内容(利用NLPIR 的发现新词功能自动提取文本内的新词汇,解决worldcloud中英文混合只显示中文的问题,NLPIR与worldcloud结合生成词云) 写作本博客需要一个小时,阅读需要十二分钟.使用 NLPIR2016 获取新词# 之前已经展示过的代码,介绍了NLPIR2016中获取新词的三个方式 # 获得新词,第二个参数控...
阅读(1129) 评论(0)

Python NLPIR(中科院汉语分词系统)的使用 十五分钟快速入门与完全掌握

前叙博主写这篇文章使用了八十分钟,阅读需要十五分钟,读完之后你将会学会在Python中使用NLPIR2016.如果你花费更多的时间练习后半部分的例子,你将能够在一天内学会在Python中使用NLPIR2016的全部所需知识 如果你想要获取更详细的API翻译,你需要进一步学习ctypes,附赠一篇关于API翻译,虽然是java语言的,但是NLPIR的接口翻译都是一样的 http://blog.cs...
阅读(5062) 评论(1)

源码:我的关于NLP的博客(持续更新中...)

决定上传我平时写的部分源码,不过暂时只打算上传有关NLP的部分,之后随着博客的不断更新,我也会不断更新这篇博客,你可以将这片博客放在你的收藏夹里,这样方便你的浏览 1.关于NLPIR的部分 20160606,第一次上传 测试pynlpir 在Python中使用NLPIR2016(快速上手与完全掌握) 百度云链接:http://pan.baidu.com/s/1eStdgRK 2...
阅读(1327) 评论(0)

中科院分词系统(NLPIR)JAVA简易教程

这篇文档内容主要从官方文档中获取而来,对API进行了翻译,并依据个人使用经验进行了一些补充,鉴于能力有限、水平较低,文档中肯定存在有很多不足之处,还请见谅。 下载地址:http://ictclas.nlpir.org/downloads,下载最新的NLPIR/ICTCLAS分词系统下载包 授权文件下载地址:https://github.com/NLPIR-team/NLPIR/tree...
阅读(1423) 评论(0)

Python 中文分词 NLPIR 快速搭建

前述本篇文章写完需要半个小时,阅读需要十分钟,读完后,你将学会在Python中使用NLPIR,以及关于使用它的一些有用的基础知识 NLPIR 是中科院的汉语分词系统,在Python中使用也比较广泛,而且曾多次夺得汉语分词比赛的冠军,并且其可以在多个语言上都实现了接口甚至在Hadoop中也可以使用,博主比较推荐NLPIRgithub地址:https://github.com/NLPIR-team/N...
阅读(1366) 评论(0)

Python + worldcloud + jieba 十分钟学会用任意中文文本生成词云

前述本文需要的两个Python类库 jieba:中文分词分词工具 wordcloud:Python下的词云生成工具写作本篇文章用时一个小时半,阅读需要十分钟,读完该文章后你将学会如何将任意中文文本生成词云 Python词云 worldcloud 十五分钟入门与进阶 Python中文分词 jieba 十五分钟入门与进阶代码组成简介 代码部分来源于其他人的博客,但是因为bug或者运行效率的原因,...
阅读(5302) 评论(2)

Python中文分词 jieba 十五分钟入门与进阶

整体介绍jieba 基于Python的中文分词工具,安装使用非常方便,直接pip即可,2/3都可以,功能强悍,博主十分推荐 github:https://github.com/fxsjy/jieba 开源中国地址:http://www.oschina.net/p/jieba/?fromerr=LRXZzk9z 写这篇文章花费两个小时小时,阅读需要十五分钟,读完本篇文章后您将能上手jieba下篇...
阅读(3208) 评论(3)

Python词云 wordcloud 十五分钟入门与进阶

整体简介基于Python的词云生成类库,很好用,而且功能强大.博主个人比较推荐 github:https://github.com/amueller/word_cloud 官方地址:https://amueller.github.io/word_cloud/ 写这篇文章花费一个半小时,阅读需要十五分钟,读完本篇文章后您将能上手wordcloud中文词云与其他要点,我将会在下一篇文章中介绍快速生...
阅读(27490) 评论(3)

docker 的mysql镜像使用手册 官网原文 日期2017-05-25

原文地址 Supported tags and respective Dockerfile links 8.0.1, 8.0, 8 (8.0/Dockerfile)5.7.18, 5.7, 5, latest (5.7/Dockerfile)5.6.36, 5.6 (5.6/Dockerfile)5.5.56, 5.5 (5.5/Dockerfile) Quick refer...
阅读(1417) 评论(0)

pynlpir.LicenseError: Your license appears to have expired. Try running "pynlpir update".

本篇讲的是Python环境,但是其他环境原理相同 但是如果你使用的java环境,或许 JAVA环境 解决NLPIR的License过期问题 可以更好地帮助你执行代码import pynlpir pynlpir.open()str = '欢迎科研人员、技术工程师、企事业单位与个人参与NLPIR平台的建设工作。' print(pynlpir.segment(str))后,出现pynlpir.Licen...
阅读(2265) 评论(0)

朴素贝叶斯分类器(Navie Bayesian Classifier)中的几个要点(一)

关键字: 拉普拉斯修正(Laplacian correction) 懒惰学习(lazy leanring) 对数似然(log-likelihood) 拉普拉斯修正(Laplacian correction)朴素贝叶斯分类器的训练: 基于训练集D 来估计类先验概率P(y) 基于训练集D 为每个属性估计条件概率P(x|y) 因此当在某个训练集中,样本的一条特征值 EV 出现概率为 0 时,则会使计算的先...
阅读(1474) 评论(0)

OpenCV的k - means聚类 -对图片进行颜色量化

OpenCV的k - means聚类 目标 学习使用cv2.kmeans()数据聚类函数OpenCV 理解参数 输入参数 样品:它应该的np.float32数据类型,每个特性应该被放在一个单独的列。 nclusters(K):数量的集群需要结束 标准 : 这是迭代终止准则。 当这个标准是满足,算法迭代停止。 实际上,它应该是...
阅读(1324) 评论(0)

OpenCV官方文档 理解k - means聚类

理解k - means聚类 目标 在这一章中,我们将了解k - means聚类的概念,它是如何工作等。 理论 我们将这个处理是常用的一个例子。 t恤尺寸问题 考虑一个公司要发布一个新模型的t恤。 显然他们将不得不制造模型满足人们各种尺寸的大小不同。 所以公司的数据甚至€™身高和体重,并把它们放到图,如下: 公司无法为所有的尺寸制作衣服。 相反,他们把人分为...
阅读(1302) 评论(0)

盘点selenium phantomJS使用的坑

转载自简书 说到python爬虫,刚开始主要用urllib库,虽然接口比较繁琐,但也能实现基本功能。等见识了requests库的威力后,便放弃urllib库,并且也不打算回去了。但对一些动态加载的网站,经常要先分析请求,再用requests模拟,比较麻烦。直到遇到了selenium库,才发现爬动态网页也可以这么简单,果断入坑! selenium是python的一个第三方自动化测试库,虽然是...
阅读(1499) 评论(0)

朴素贝叶斯法分类器的Python3 实现

本篇文章是我在读了李航的后手写的算法实现之一 原理请参考统计学习方法第四章朴素贝叶斯法-李航代码, NaiveBayesMethod 的内部计算方式现在为数值计算, 符号计算的代码已经注释,如果需要请手动修改 朴素贝叶斯法分类器 当lam=1 时,类分类方式为为贝叶斯估计 实现了拉普拉斯平滑,以此避免出现要计算的概率为0的情况,以免计算错误的累积 具体原理请...
阅读(1457) 评论(0)

统计学习方法第四章朴素贝叶斯法-李航

第4章 朴素贝叶斯法 朴素贝叶斯 (naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出Y。 4.1 朴素贝叶斯法的学习与分类 基本方法 朴素贝叶斯法通过训练数据集学习X和Y的联合概率分布 P(X,Y)。...
阅读(1314) 评论(0)
115条 共6页首页 上一页 1 2 3 4 5 ... 下一页 尾页
    个人资料
    • 访问:252978次
    • 积分:3064
    • 等级:
    • 排名:第11855名
    • 原创:93篇
    • 转载:20篇
    • 译文:2篇
    • 评论:35条
    博客专栏
    最新评论