![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 83
爱唱歌的瓜皮
这个作者很懒,什么都没留下…
展开
-
《机器学习实战》第2章课后题——手写识别系统
学后面几张的时候卡住了,然后突然想回头再自己写一遍课后习题,毕竟第一遍有点对着书敲的意味。果不其然,自己回头重写总会有的地方有问题。 第二章是用的KNN算法,优点是精度高(结果看来的确很高),对异常值不敏感(我觉得是因为KNN算法要选出与当前距离最小的k个点,异常值肯定在很后面,所以根本排不上号),无数据输入假定(没能理解这个),缺点是计算复杂度高,空间复杂度高,这两点好理解。 from n...原创 2019-07-19 11:31:05 · 211 阅读 · 0 评论 -
《机器学习实战》第5章课后题——从疝气病症预测病马的死亡率
完全忘记之前是怎么写的了,而且这章对数学的要求比较高,看了半天才有所了解,还不一定能自己推导出来公式 Logistic回归算法优点:对计算代价不高(没有太多的运算)易于理解和实现(对于代码的确好敲,但是要实现公式推导不好实现)。缺点:容易欠拟合(因为weight是根据X向量的值所产生的,X向量万一变化很大,weight有可能变化的比X慢的多,所以点与模拟曲线差距会变大)分类京都可能不高(由这题结...原创 2019-07-29 15:04:24 · 909 阅读 · 0 评论 -
《机器学习实战》第3章课后题——预测隐形眼镜类型
熵定义为信息的期望值,在明晰这个概念之前,我们必须知道信息的定义。如果待分类的事 务可能划分在多个分类之中,则符号x i 的信息定义为 l ( x i ) =- log 2 p ( x i ) 其中p(x i )是选择该分类的概率。 为了计算熵,我们需要计算所有类别所有可能值包含的信息期望值,通过下面的公式得到: H = - 1 p ( x i )log 2 p ( x i )原创 2019-07-22 11:06:40 · 210 阅读 · 0 评论