![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
coder爱思考
这个作者很懒,什么都没留下…
展开
-
Task5 基于深度学习的文本分类2-1Word2Vec
Task5 基于深度学习的文本分类2-1Word2Vec第五次打卡学习import loggingimport randomimport numpy as npimport torchlogging.basicConfig(level=logging.INFO, format='%(asctime)-15s %(levelname)s: %(message)s')# set seed seed = 666random.seed(seed)np.random.seed(seed)t转载 2020-07-31 23:01:20 · 120 阅读 · 0 评论 -
Datawhale:动手深度学习第二次打卡!
Datawhale:动手深度学习第一次打卡!继续一边学习一边敲代码:循环神经网络基础import torchimport torch.nn as nnimport timeimport mathimport sysimport d2lzh_pytorch as d2ldevice = torch.device('cuda' if torch.cuda.is_available(...原创 2020-02-19 20:58:30 · 183 阅读 · 0 评论 -
Datawhale:动手深度学习第一次打卡!
Datawhale:动手深度学习第一次打卡!这几天将视频中的代码重新敲了一边,感觉自己学到了不少东西:编程一定要多练呀!!!(叫破喉咙)要多看看一些写的好的代码,不然你就不知道自己代码写的有多辣眼睛学习了一些python的语法点已经一些小技巧又再次复习了以下知识点Task01:线性回归import torchfrom torch import nnimport numpy ...原创 2020-02-14 21:27:20 · 217 阅读 · 0 评论 -
Xgboost算法梳理
文章目录算法原理目标函数分裂结点算法正则化对缺失值处理优缺点xgboost参数算法原理想要了解XGBoost算法的原理,首先需要理解Boosting算法。简单来说,Boosting算法是将个体学习器集成为更复杂学习器的机器学习方法,它更强调个体学习器之间存在强依赖关系,因此也可认为是串行集成学习方法。相比下,Bagging算法则属于并行集成学习方法。Boosting算法的基本原理是:首先用初...转载 2019-04-10 21:38:17 · 243 阅读 · 0 评论 -
GBDT算法梳理
文章目录引言前向分步算法负梯度拟合目标函数分类二分类多分类损失函数分类算法回归算法正则化优缺点sklearn参数引言集成学习中的提升法是一种常见的统计学习方法,通常的思路是改变训练数据的概率分布(即训练数据的权值分布),针对不同训练数据分布调用弱学习方法学习一系列的弱分类器。因此针对Boosting方法,就有两个地方需要注意:每一轮训练如何改变训练数据的权值分布和概率分布如何将弱分类器组...转载 2019-04-07 21:43:49 · 184 阅读 · 0 评论