![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 79
N维空间1
这个作者很懒,什么都没留下…
展开
-
使用numpy写的神经网络
这段时间在自学神经网络,原创 2014-07-30 06:42:41 · 1717 阅读 · 0 评论 -
改进bpnn
上一篇bpnn有误,细心的你一定发现了原创 2014-08-06 21:30:41 · 712 阅读 · 0 评论 -
机器学习中的范数规则化之(二)核范数与规则项参数选择
转载:机器学习中的范数规则化之(二)核范数与规则项参数选择机器学习中的范数规则化之(二)核范数与规则项参数选择zouxy09@qq.comhttp://blog.csdn.net/zouxy09 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大转载 2015-06-25 14:58:22 · 366 阅读 · 0 评论 -
神经网络训练中的Tricks之高效BP(反向传播算法)
转载:神经网络训练中的Tricks之高效BP(反向传播算法)神经网络训练中的Tricks之高效BP(反向传播算法)zouxy09@qq.comhttp://blog.csdn.net/zouxy09 Tricks!这是一个让人听了充满神秘和好奇的词。对于我们这些所谓的尝试应用机器学习技术解决某些问题的人,更是如此。曾记得,我们绞尽脑汁,搓手转载 2015-06-25 16:00:18 · 527 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
转载机器学习中的范数规则化之(一)L0、L1与L2范数机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这转载 2015-06-25 14:52:25 · 416 阅读 · 0 评论