![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习,logistic回归
文章平均质量分 59
1308900238
这个作者很懒,什么都没留下…
展开
-
机器学习实战-logistic回归随机梯度上升浅见
本周跟着书本调试了一下实战第五章logistic回归,下面浅谈一下我在随机梯度上升中遇到的问题以及一些见解。方式一:随机但有重复,增大遍历次数def stocGradAscent1(dataMat,labels,numIter=150):m,n = shape(dataMat)weights = ones(n)for j in range(numIter):dataIn原创 2017-11-16 15:59:28 · 1777 阅读 · 0 评论 -
AdaBoost
今天重新看了一下集成学习,对里面的adaboost重新回顾了一下,感觉有了新的见解。adaboost并没有涉及到参数的调整,他只不过是在机械的试着各种参数,使分类效果最好的决策树在最终决策上占的比重大一些,但是对于一些样本,可能现有的分类器效果并不是很好,于是在新的分类器中,他尝试着将上次分错的点的奖励变大,鼓励新的分类器去迎合上次分错的点,这就使得整个集成环境的泛化能力大大提高,同时,他也对每个...原创 2018-05-17 10:16:39 · 728 阅读 · 0 评论 -
pytorch自动求导,自定义损失函数
什么是动态建图?如何动态建图?动态建图为什么可以反向自动求导?我对于这个问题一直存在疑惑,但是去网上有没有找到好的解释,于是,没办法,自己实验吧。首先,我们做如下定义:a = torch.randn(2)b = torch.randn(2)c = torch.randn(2,requires_grad=True)m = a*bprint(m.grad_fn)q = a*cprint(q.grad_...原创 2018-05-17 19:55:39 · 3905 阅读 · 0 评论 -
BP神经网络反向传播求导
原创 2018-05-24 20:24:58 · 703 阅读 · 0 评论 -
如何学损失函数
今天无意间看到了logistic回归的pytorch的实现,抱着他山之石可以攻玉的态度,阅读了一下代码,突然发现在其代码中的网络搭建部分只有一个Linear层,却不见softmax层(使用的是mnist数据集进行识别的所以要用到softmax回归),但是遍观其全体代码依然没有痕迹,这是我便奇了怪了,由于之在纯python和tf框架上敲过这个代码,所以对这一情况感觉很是奇怪,难道只用一个linear...原创 2018-06-01 16:02:25 · 445 阅读 · 0 评论