自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 sklearn 中 fit fit_transform

fit(y) Fit label encoder fit_transform(y) Fit label encoder and return encoded labels fit 返回一个实例 fit_transform 返回 和y一样的形状from sklearn import preprocessingle = preprocessing.LabelEncoder()city

2017-04-07 16:48:14 9268

原创 数学之美 (1 马尔科夫

马尔科夫2元模型 后一个词概率只与前一个词有关 简化了词条件概率隐马尔科夫模型(hmm)为解决该问题 马尔科夫链 P(st+1=m3|st =m2)=0.6 P(st+1=m4|st=m2)=0.4 按任意给定规则 运行一段时间T 会生成序列 s1,s2,s3,···sT隐马尔科夫链看不出s1,s2··· 就每次输出 O1,O2··· 把独立输出假设带入 那么计算 由s1,s2

2017-04-06 18:54:34 398

原创 机器学习 基本算法 (5 (adaboost、 Gradient boost

adaboostboosting: 增强的 adaboost 适应的增强 适应的增强 就是给你好多个弱的方案,让你经过不断地适应增强 得到一个新的好方案。 就是让孩童来讨论一个问题,比如什么是太阳 一人只能说一条 那就有很多说法 太阳是圆的,发光的 等等 但每个人说法都是片面的 弱的 adaboost的所求目标 这里 我们要得个每个 弱方案的权重 和弱方案对第一个方案,给每一个

2017-04-01 17:12:20 480

原创 机器学习 基本算法 (4(K-means(较短

k-means一种解决聚类问题的非监督式学习算法 就是k-均值 ,对全部的n个点 用求平均值的方法 找到k个聚类点 转化成最优化问题 就是 M个聚类点 每个x都属于这M个其中的一个点中 ,求这所以点加起来的总平方距离最短对方程求导 看出来了 点的位置就是属于该点的 x的平均 (这就是 k-均值 中均值的来源) 这个算法很容易理解 1、随机找到 K个聚点 2、把所有

2017-03-31 20:32:04 219

原创 机器学习 基本算法 (3(深入浅出SVM

Hard-Margin SVMLinear SVM如果说 在平面上 0的点 和 1的点 是可分的 那就能找出无数条线 来划分这个面 那怎么找到最好的线 这就是svm做的事 就是找到最不容易发生意外的线 就像这3条线 第1条就很容易发生意外 就是说 在左边的 x 这个地方 对分类要求的精度很高 可能一不小心就分错了 x o 而 svm 就是要找到 第3条线这样的线 在svm中 越不容易出

2017-03-30 17:40:37 246

原创 机器学习 基本算法 (2(Linear Regression ,Logistic Regression

名字都是回归 但逻辑回归不是回归 是分类Linear Regression(线性回归)就是用简单的线性方程 来拟合数据集y=∑ni=0wixi+b y =\sum_{i=0}^n w_ix_i+b 其中的 w 就是各个回归系数 w 可用平方误差来求得 ∑ni=0(yi−wixi)2=∑ni=0(yi−xTiw)2 \sum_{i=0}^n (y_i-w_ix_i)^2 = \sum_{i=0}^

2017-03-30 16:02:35 357

原创 机器学习 基本算法 (1(knn ,Decision Tree,random forest

把knn放进来是 knn太短了 直接加上就行了 数和森林可以参考这个 https://www.analyticsvidhya.com/blog/2016/04/complete-tutorial-tree-based-modeling-scratch-in-python/knn好邻居法 用最近的k的邻居来表示它的特征 一般用于分类 用一个距离函数 找出已知数据中距离未知事件最近的k个数据,最

2017-03-29 20:06:49 1460

原创 扩大CentOS的硬盘空间

安装gcc 磁盘内存不够了 [root@localhost yyy]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda2 14G 12G 1.7G 88% / tmpfs 940M 228K 939M 1% /dev/shm

2017-03-29 19:35:41 420

原创 初识nlp (5(朴素贝叶斯

贝叶斯公式 p(x|y) x p(y) =p(y|x) x p(x)就是给我们算 p(x|y) 提供了更简单的思路 , 用p(y|x)来代替 在对电子邮件进行分类 a=“恭喜你中奖了···” ,判断a是否是 b“垃圾邮件” p(b|a) 可能不容易 但可以用p(a|b) 在“垃圾邮件”中 出现 a 的概率来代替 ,对垃圾邮件统计即可朴素表现:p(“恭喜你中奖了快来领取”|”垃圾

2017-03-29 17:24:24 340

原创 linux出现an error occurred during the file system check

命令行里把/etc/fstab里后添加的挂载信息给删除但文件只读 可以 mount -n -o remount,rw在 vi /etc/fstab这时就可以删除了

2017-03-29 15:07:07 566

原创 nlp初识 (4(cnn cnn作用text 文本分类

卷积 : y = f x g 用另一个矩阵 来对该矩阵 做运算 得到新的结果 cnn 对图片 用不同滤镜 得到不同的新矩阵 在对每个新矩阵 pooling 相当于降维 比如 8 x8 矩阵 对每个 2 x 2 取max 把8 x 8 转成 4 x4把句子当做一副画 让cnn来学 或者 cnn 比rnn合适在分类上 因为对小语病可以忍受 做了pooling关于卷积的一个血腥的讲解比如

2017-03-28 22:20:55 714 1

原创 初识nlp ( 3 ( rnn rnn应用1 自动写作

普通神经网络 h1 = f(w1x1+w2x2+w3x3) o1 = f(w’1h1+w’2h2+w’3h3) o1<-> y1 loss’= ∆带记忆神经网络rnn带sequential的网络 sequential:有时序的 前一个的输出 在后一个的输入中考虑 lstm (long short-term memory)rnn 加强版 用xor and 来计算将上次输出 这次输入

2017-03-28 20:40:14 1874

原创 初识nlp (2 (word2vec基础

nlp处理方法人工创造dict 基于统计 hmm,crf,svmbag of wordsone-hot 1xn矩阵只有一个元素是1,其他是0 john likes to watch movies Mary likes too -> [1,2,1,1,1,0,0,0,1,1]或[1,1,1,1,1,0,0,0,1,1] john also likes watchfootball g

2017-03-27 17:40:33 484

原创 初识nlp word2vec实战1 英语文本分析

Bag of Words Meets Bags of Popcorn https://www.kaggle.com/c/word2vec-nlp-tutorial/data版本 1 未用word2vec4个文件 : labelTrainData testData unlabeledTrainData sampleSubmissionimport 所需库import osimport re

2017-03-25 15:57:05 1496

转载 初识nlp (1 (分词

1 nltk知识 Python上著名的自然语处理库。带语料库,词性分类库。 带分类,分词,等等功能 pip install -U nltk 安装语料库import nltk nltk.download() 简易处理流程图 2 tokenize分词>>> import nltk >>> tokens = nltk.word_tokenize(“hello, world" ) >>>

2017-03-24 20:10:39 451

转载 安装matplotlib 后 show()不显示图片

#备忘查看后端后 发现是aggimport tkinter 发现不行find /usr -name *tkinter.so 发现有tkinter 原来是python2.6和python2.7起冲突了[root@li250-193 Python-2.7.4]# vim Modules/Setup.dist

2017-03-22 19:29:32 421

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除