机器学习
文章平均质量分 73
buaalei
这个作者很懒,什么都没留下…
展开
-
caffe ssd 在windows上的编译过程
解决caffe ssd 在windows上的编译过程中可能出现的问题原创 2017-01-22 15:05:13 · 9957 阅读 · 6 评论 -
反向传播算法
反向传播算法翻译 2015-08-28 17:15:00 · 1466 阅读 · 0 评论 -
图像处理之梯度
图像处理之梯度,Sobel算子原创 2015-05-13 11:44:59 · 7826 阅读 · 0 评论 -
规则化和模型选择(Regularization and model selection)
转:http://www.cnblogs.com/jerrylead/archive/2011/03/27/1996799.html1 问题 模型选择问题:对于一个学习问题,可以有多种模型选择。比如要拟合一组样本点,可以使用线性回归,也可以用多项式回归。那么使用哪种模型好呢(能够在偏差和方差之间达到平衡最优)? 还有一类参数选择问题:如果我们想使用带转载 2015-06-12 10:30:13 · 1158 阅读 · 0 评论 -
谷歌大脑科学家 Caffe缔造者 贾扬清 微信讲座完整版
转载:http://suanfazu.com/t/caffe/9479大家好!我是贾扬清,目前在Google Brain,今天有幸受雷鸣师兄邀请来和大家聊聊Caffe。没有太多准备,所以讲的不好的地方还请大家谅解。我用的ppt基本上和我们在CVPR上要做的tutorial是类似的,所以大家如果需要更多的内容的话,可以去tutorial.caffe.berkeleyvision.or转载 2015-06-03 14:07:56 · 21784 阅读 · 3 评论 -
KL距离(相对熵)
转:http://wenku.baidu.com/link?url=9AvwW3syYBPAnTtHa7C6IPNaR71Ax1L2ebfdEMQhGkjlp_-VLrqYgCoPilvWyihqSllMlcv5VaVnRcwLiV0D98cZEaal-_BeZ-WALMSf00eKL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简转载 2015-06-16 11:38:27 · 8195 阅读 · 1 评论 -
关于线性空间及机器学习的几点直观思考(持续更新...)
机器学习(包括人类认知)从根本上来讲就是用最简洁的结构来表达现实世界的各种结构,当我们对现实世界的结构了解不够清楚的情况下,我们也只能构造各种模型进行逼近和预测,以期望我们的模型在描述现实世界结构的误差最小,这种误差可能有多种的表述方式(比如最小均方误差,最近距离等等)。对于机器学习有着重要作用的正则化理论,其大意就是防止对于小范围适用的模型在推广到整体的不适应性(原理上类同盲人摸象,每人摸了其中原创 2015-04-17 15:35:56 · 6403 阅读 · 0 评论 -
认知信息处理系统的认识和理解
转载:http://zhan.renren.com/h5/entry/36028884980454219671. 背景 2013年4月2日,美国总统奥巴马在白宫签署批准了一项新的科研计划——“通过推进神经科技创新的大转载 2015-05-08 11:24:59 · 8997 阅读 · 0 评论 -
ML的相关资源汇总
工欲善其事必先利其器,直接汇总全部的关于ML的相关资料,不断更新1.http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B关于Deep Learning的Tutorial,写的比较通俗易懂,很适合入门,因为是个导览,介绍了相关的知识和方向,可以结合学习,不懂的Google,很好的学习方提升。2.htt原创 2013-08-26 10:41:41 · 1671 阅读 · 0 评论 -
如何使用ssd训练自己的数据(windows下)
如何使用ssd训练自己的数据(windows下)原创 2017-02-14 11:12:16 · 8291 阅读 · 3 评论