机器学习
文章平均质量分 92
violet_zhy
这个作者很懒,什么都没留下…
展开
-
支持向量机学习笔记一
支持向量机学习笔记[1]提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录支持向量机学习笔记[1]写在前面支持向量机线性可分支持向量机硬间隔函数间隔几何间隔间隔最大化最大化间隔分离超平面间隔最大化对偶问题求 minw,bL(w,b,α)\min_{w,b}L(w,b,\alpha)minw,bL(w,b,α)求 maxαminw,bL(w,b,α)\max_\alpha \min_{w,b} L(w,b,\alpha)maxαminw,bL(w,b,α)支持向量总结原创 2021-10-20 20:34:31 · 137 阅读 · 0 评论 -
机器学习:Universal Stagewise Learning for Non-Convex Problems with Convergence on Averaged Solutions
Although stochastic gradient descent (SGD) method and its variants (e.g., stochastic momentum methods, ADAGRAD) are the choice of algorithms for solving non-convex problems (especially deep ...原创 2019-08-13 22:35:55 · 305 阅读 · 0 评论 -
机器学习:神经网络模型
神经网络(neural networks)即人工神经网络,是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型.给1.1 神经网络T.Kohonen 1988年在Neural Networks创刊号上给出神经网络定义:神经网络是由具有适应性的简单单元组成的广泛并行互联的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应.1943年McCulloch and Pitts...原创 2019-08-10 09:09:46 · 793 阅读 · 0 评论 -
机器学习:模型评估与选择
主要对周志华机器学习第二章 模型评估与选择 做了稍微详细的笔记原创 2019-08-11 17:49:54 · 343 阅读 · 0 评论 -
机器学习:Gradient-based Hyperparameter Optimization through Reversible Learning
Abstract:Tuning hyperparameters of learning algorithms is hard because gradients are usually unavailable. We compute exact gradients of cross-validation performance with respect to all hyperparamete...原创 2019-08-12 20:39:18 · 1276 阅读 · 0 评论