![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
番茄很甜
这个作者很懒,什么都没留下…
展开
-
集成学习(Ensemble Learning)
>>转自博客“理想几岁”:机器学习-集成学习(Ensemble Learning)>>原文链接:https://www.cnblogs.com/zongfa/p/9304353.html一、集成学习法在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型,但实际情况往往不这么理想,有时我们只能得到多个有偏好的模型(弱监督模型,在某...转载 2019-03-26 22:02:18 · 325 阅读 · 0 评论 -
pytorch的基础知识
1、和Numpy交互(1)数据转换import torchimport numpy as npa = np.array([[1,2], [3,4]]) # 创建一个np arrayb = torch.from_numpy(a) # 根据np array创建torch 张量c = b.numpy() # 根据张量, 导出np array...转载 2019-04-10 15:05:08 · 161 阅读 · 0 评论 -
神经网络最后一层全连接+Softmax的理解
转载原文作者: 李拜六不开鑫 原文链接: https://blog.shinelee.me/2018/12-06-直观理解神经网络最后一层全连接+Softmax.html写在前面这篇文章将从3个角度:加权、模版匹配与几何来理解最后一层全连接+Softmax。掌握了这3种视角,可以更好地理解深度学习中的正则项、参数可视化以及一些损失函数背后的设计思想。全连接层与Softmax回顾...转载 2019-04-01 19:49:25 · 12550 阅读 · 0 评论 -
什么是fine turning
[转载]作者:喜欢打酱油的老鸟原文:https://blog.csdn.net/weixin_42137700/article/details/82107208-----------------------------------------------------------------------------------------------------------------...转载 2019-04-23 11:14:04 · 554 阅读 · 0 评论