![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
slicing
在你的才华还无法跟上你的野心时,就静下来努力。
没有爬到你想要的地方,每一次休息都是在浪费生命。
展开
-
K--近邻算法
Python语言不用考虑内存分配问题,在函数中传递的是列表的引用,在函数内部对列表对象的修改。将会影响该列表对象的整个生存周期K—近邻算法(KNN)采用测量不同特征值之间的距离方法进行分类优点:精度高,对异常值不敏感,无数据输入的假定缺点:计算复杂度高,空间复杂度高适用数据范围:数值型和标称型工作原理:存在一个样本数据集,也称作训练样本集,并且样本集中每个数据都存在标签,即使我们知道样本集中每一数...原创 2018-05-13 19:30:44 · 167 阅读 · 0 评论 -
模型评估方法
有些自己热爱却因为被迫无奈而放弃的东西,慢慢记录吧。以后想起,我还会知道自己学过这些。《机器学习》周志华著的这本书是一个很好的学习资料,其实我更喜欢这本书的样子,漂亮而且有种童话故事的感觉。在上一篇中有讲述到模型历程。https://blog.csdn.net/qq_38354978/article/details/80237689;因此在这里简单描述一下模型的评估和选择。一:经验误差与过拟合 ...原创 2018-06-03 02:54:59 · 1773 阅读 · 0 评论 -
mnist小demo的运行问题
(1)如果没有调用input_data,就会导致数据无法获取(2)在进行损失函数设置是,原先代码为:cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(=y, y_))但会报错, Only call `softmax_cross_entropy_with_logits` with named argument...原创 2018-06-05 22:47:26 · 151 阅读 · 0 评论