机器学习
文章平均质量分 87
shine-lee
莫听穿林打叶声,何妨吟啸且徐行
展开
-
直观理解为什么分类问题用交叉熵损失而不用均方误差损失?
文章目录交叉熵损失与均方误差损失损失函数角度softmax反向传播角度参考交叉熵损失与均方误差损失常规分类网络最后的softmax层如下图所示,传统机器学习方法以此类比,一共有KKK类,令网络的输出为[y^1,…,y^K][\hat{y}_1,\dots, \hat{y}_K][y^1,…,y^K],对应每个类别的概率,令label为 [y1,…,yK][y_1, \dots, y...原创 2019-12-12 22:30:11 · 4344 阅读 · 4 评论 -
为什么要做特征归一化/标准化?
文章目录写在前面常用feature scaling方法计算方式上对比分析feature scaling 需要还是不需要什么时候需要feature scaling?什么时候不需要Feature Scaling?小结参考博客:blog.shinelee.me | 博客园 | CSDN写在前面Feature scaling,常见的提法有“特征归一化”、“标准化”,是数据预处理中的重要技术,有时甚...原创 2019-11-02 18:29:29 · 4861 阅读 · 4 评论 -
重走机器学习之路——形而上者谓之道
形而上者谓之道,形而下者谓之器,化而裁之谓之变;推而行之谓之通,举而措之天下之民,谓之事业。——《易经·系辞》天地间本来就存在种种规律和法则,这些规律法则不断演化、相互作用形成了世间万象,比如水蒸气遇冷液化成雨,比如万有引力让苹果落到地上。世间之“形”或“象”,大致可分两种:一种是物质的种种“现象”,风雨雷电、花鸟鱼虫,另一种是精神的种种“意象”,或者说“观念”。人们通过持续观...原创 2018-07-23 14:58:42 · 590 阅读 · 0 评论