机器学习
文章平均质量分 88
zhang_yan##
这个作者很懒,什么都没留下…
展开
-
Summary of Resource management with deep reinforcement learning 论文笔记
Resource management with deep reinforcement learning 论文笔记现实世界中的资源管理问题是挑战,因为底层系统非常复杂且难以建模,而且输入总是很嘈杂。 Mao et al. 进行的这项研究的目的是回答强化学习是否可以提供一种可行的替代方法,以替代人为诱发的启发式资源管理。简而言之:系统可以学习自己管理资源吗?深度强化学习将神经网络建模与传统的RL算法结合使用,可以通过与可以在面对特定状态时获得最大收益的环境进行交互,学习根据经验做出更好的决策。作者认为,深原创 2021-05-23 05:03:06 · 260 阅读 · 0 评论 -
Ensemble Learning
Ensemble Learning1 高级集成技术1.0 决策树元素:根结点:包含样本的全集内部节点:对应特征属性测试叶节点:代表决策结果决策树构建一个二叉树来分割数据,预测时,在树的内部节点处用某一属性值进行判断,根据判断结果决定进入哪个分支节点,每一步都会选择能够最大化叶节点纯度的规则,直到到达叶节点处,得到分类结果。叶子纯度Entropy信息熵:Entropy(p)=−∑inpilog(pi)Entropy(p) = - \sum_i^np_ilog(p_原创 2021-05-23 02:09:08 · 740 阅读 · 1 评论 -
SVM & 核技巧(数学推导)
SVM1 简介一种二分类模型,线性分类器,同时可以通过核变换来处理非线性问题,类似于感知器,但是SVM要求在特征空间上的间隔最大化一句话介绍SVMSVM是一种二分类模型,他的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔大使它有别于普通的感知机,通过核技巧隐式的在输入空间直接求解映射空间中特征向量的内积,使其成为一个非线性分类器。SVM的学习策略是间隔最大化,可形式化为一个求解凸二次规划问题。2 核技巧(Kernel trick)如果我们选取一个半正定的核函数K(x,y)K(x,原创 2021-05-22 00:25:23 · 594 阅读 · 3 评论