![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
工具
isMarvellous
这个作者很懒,什么都没留下…
展开
-
在sklearn.model_selection.GridSearchCV中使用自定义验证集进行模型调参
模型调参是一门玄学。为了获得模型最优参数,我们需要不断地尝试不同的参数,这一过程相当繁琐。好在python的sklearn包中为我们提供了GridSearchCV,大大方便了调参过程。本文使用实际例程简单介绍一GridSearchCV的使用,并展示如何使用自定义验证集进行模型调参。 首先解释一下什么叫使用自定义验证集进行模型调参。GridSearchCV默认使用的模型验证方法是KFold交叉验证,原创 2017-10-10 17:16:07 · 8538 阅读 · 1 评论 -
在caffe中添加新层 L1 Loss layer
本文地址:http://blog.csdn.net/ismarvellous/article/details/79069661,转载请注明出处。本文涉及的所有完整文件可在我的github下载。1. L1 Loss的计算推导与欧式距离(L2 Loss)相似,L1 Loss也是两个输入向量直接距离的一种度量。但L2 Loss的梯度在接近零点的时候梯度值也会接近于0,使学习进程变慢,而L1 ...原创 2018-01-15 22:38:09 · 3362 阅读 · 7 评论 -
详解softmax与softmax loss的前后向推导及caffe源码实现
本文地址:http://blog.csdn.net/isMarvellous/article/details/78735208,转载请注明出处。Softmax层的作用是将输入的预测向量转化为概率值,也就是每个元素介于0和1之间,其和为1。而Softmax loss是基于Softmax的输出,使用多元交叉熵损失函数得到的loss。下面我们来讨论一下他们其中的正向和反向导数推导,以及caffe中的原创 2017-12-06 21:07:27 · 2545 阅读 · 0 评论