生物九律

分布式蜂群意识,经济体行为,超级电脑的思维,以及我的生命,都分布在众多更小的单元上(这些单元自身也可能是分布式的)。当总体大于各部分的简单和时,那多出来的部分(也就是从无中生出的有)就分布于各部分之中。无论何时,当我们从无中得到某物,总会发现它衍生自许多相互作用的更小的部件。我们所能发现的最有趣的...

2017-11-28 10:26:35

阅读数 272

评论数 0

深度学习系列笔记之统计基础

研究方法入门进行调查 信任调查结果吗? 调查了谁? 调查了多少人? 调查是怎么进行的? 影响结果的是潜在变量 抽样总体的平均得分叫作总体参数μ 抽样数据和总体数据之间有个叫抽样误差 μ -x 怎样使样本数据的平均值x更接近总体参数μ 使用大量的样本 使用随机无偏差的...

2017-11-23 10:11:51

阅读数 668

评论数 0

机器学习系列笔记(八)

杂讯与错误 noise and error 不同错误适用于不同的场景 false accpet 错误接受 false reject 错误拒绝商场打折 FBI门禁各种情况下有不同的权重 weighted classificationweighted pocket algorithm 权...

2017-11-09 11:36:14

阅读数 93

评论数 0

机器学习系列笔记(七)

The VC dimension 定义VC维度 VC维度感知 VC维度的物理直觉 解读VC维度Mh(N) 有break point 好的hypotheses N 够大 好的data 挑选一个演算法让Ein 最小 那么就可以说是学到了东西T...

2017-11-09 11:16:33

阅读数 93

评论数 0

机器学习系列笔记(六)

泛化理论 theory of generalizationbounding function B(N,K) :上限函数B(N,3) break point 在3上shatter 出现所有状况dichotomies有2个点 不能有2个break point ,shatter 有三种情况 有3个点,...

2017-11-03 14:49:57

阅读数 94

评论数 0

机器学习系列笔记(五)

learning 拆分为两个问题 一:我们如何可以让Ein(g)和Eout(g)足够接近? 二:如何让Ein(g)变的越来越小?M hyposesis的大小 M比较小的时候:good,p[bad<=2Mexp],bad 很少的选择 M比较大的时候:好的选择,坏事情发生的机率增加把h...

2017-11-03 11:32:31

阅读数 93

评论数 0

机器学习系列笔记(四)

学习的可行性 学习是不可能的? 可能拯救 连接学习 连接到真实学习有多种情况解的问题.通过学习后的g怎么解释都可以, 比如说6/2(2+1)=9?1?这样的问题问一个有很多红色和绿色的弹珠,想知道红色弹珠的比例有多少sample 拿10个. 其中有多少red的那么有引伸出霍夫丁不等式 (h...

2017-11-02 14:35:14

阅读数 116

评论数 0

机器学习系列笔记(三)

学习的类型 是非题 (前面的银行发信用卡的例子) 2元分类的问题 more binary classification problems 信用卡发卡 垃圾邮件 判别病人是不是生病 广告收益是不是收益 答案对不对这是一类 把问题分为2类的问题 对与不对 从这里衍生 4元问题或者...

2017-11-01 16:34:55

阅读数 101

评论数 0

机器学习系列笔记(二)

上一次的学习的回顾 我们把每个使用者x用一个向量来表示 这个x有很多个维度 在银行卡申请的案例中 x就是申请表, 那么x的维度有:年龄, 年薪,..etc. 那么我们给x所有的维度计算出一个分数, 如果这个分数超过了某个极限就发卡 就像考试, 每题都给你分数,加起来超过60就给你及格,...

2017-11-01 14:26:41

阅读数 90

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭