![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
清零2015
这个作者很懒,什么都没留下…
展开
-
tensorboard可视化
tensorboard可视化代码# -- encoding:utf-8 --"""Create on 19/5/11 16:51"""import tensorflow as tfwith tf.Graph().as_default(): # 一、图的构建 with tf.name_scope('n1'): # a. 定义一个占位符。表示一个数字 input_x = tf.placeholder(dtype=tf.float32, shape原创 2020-08-13 14:50:48 · 56 阅读 · 0 评论 -
几句话之Bagging,随机森林,Boosting,adaboost,GBDT,XGBoost
Bagging随机森林随机森林=决策树+Bagging原创 2019-11-15 16:39:35 · 272 阅读 · 0 评论 -
几句话之Cart树、方差不纯度、基尼系数
准备工作如果我们要把样本画成一棵树(这棵树可以用来查找最近邻或者是分类),那我们最想知道的就是:拿哪个特征去拆分样本,并且要具体到拿哪个特征的哪个值去拆分样本?我们最希望的结果是:通过某种手段(数学公式)来选择特征(以及该特征的某个具体值),然后拿着这个千辛万苦得到的特征(值),把一堆样本"一分为二"。以此类推,最后,把样本劈成了一棵树。以前博客里提到的信息增益,信息增益率,都是为了选出特征...原创 2019-11-15 16:18:21 · 885 阅读 · 0 评论 -
几句话之决策树、信息量、信息熵、条件信息熵、信息增益、信息增益率
准备工作学习决策树,要先了解信息熵和信息增益等概念。参考:https://blog.csdn.net/zhengudaoer/article/details/80240529###信息量:可以把它理解为含金量。信息量越大,含金量越高。【比如】:今天公司突然通知春节上班。那这句话的信息量就太大了,简直是爆炸性新闻。如果全国有10000家公司,已知有9999家公司春节放假。公司宣布完之...原创 2019-11-13 14:27:38 · 506 阅读 · 0 评论 -
几句话之KNN和Kd-tree
KNN(k-NearestNeighbor)主要做分类。也可以做回归,回归的是某一个属性或特征值。找一下周围的邻居们,看邻居们是什么,就大概知道自己是什么了,有点“物以类聚,人以群分”的意思。kd-tree(k-dimensional树的简称)分割k维空间的数据。找邻居的方法比KNN先进了一些,其余的都一样。找邻居:按照方差选属性,再按属性的中位数,把样本画成树的结构。新样本从树尖开...原创 2019-11-12 13:36:45 · 220 阅读 · 0 评论 -
几句话之逻辑回归和Softmax回归
逻辑回归用sigmoid函数,把线性回归的结果进行压缩,压缩到0~1之间。然后,把压缩结果和分类输出y(假设是0和1)对应起来:压缩结果>0.5,y为1;压缩结果<0.5,y为0。这样就相当于得到了概率函数,有了概率函数,就能写出似然函数。当然了,为了得到模型的一般形式,必然要引入一些模型参数。求这些模型参数,就用老办法:写出似然函数把似然函数加负号,转为损失函数梯度...原创 2019-11-12 09:14:09 · 257 阅读 · 0 评论 -
几句话之梯度下降
背景整理一下机器学习和深度学习的知识。记忆力下降的厉害,不整理无动力学习,写博客大概是自我救赎的好途径吧。梯度下降几句话内容转载自:https://www.cnblogs.com/pinard/p/5970503.html其中,θ是自变量,hθ是因变量。梯度的方向是函数变化最快的方向,θ加上梯度乘以步长的话就是向最大的方向走一步,减去梯度乘以步长的话就是向最小的方向走一步。梯度...转载 2019-11-12 08:41:51 · 180 阅读 · 0 评论