为了发研究生毕业论文,开始系统的学习逃不过的机器学习。实验室师兄推荐了李宏毅老师B站的课程,我将以博客的形式对所学的内容的大框架进行总结回顾,详细笔记记在ipad上,方便之后的复习。
机器学习,即是让机器找出输入与输出之间对应的函数。分为regression(回归)和classification(分类)两种。
对于训练集的处理步骤如下:
1)设置带未知参数的函数
这是基于设置Model的人的domain knowledge,也就得是相关领域专业人士来设置。在通过机器训练一段时间后,具有了一定的经验,也可对Model进行调整。
2)设置Loss函数
表示为L(b,w),函数的自变量为Model中的未知参数。
3)找最优解
最优解根据Error Surface(误差曲面)来解。
介绍了一种最优解的解法:Gradient Descent(梯度下降),可能会面临local minima(局部最优解)的问题,解法如下:
- 先在Error Surface上随机找一个初始点。(其实有比随机更合适的选择方法)
- 计算随机点的微分(此为Loss函数的因变量对每一各自变量的未知参数取微分)。下一次的点的某一参数坐标W1=W0-
*W0处的微分。
为learning rate,此为自己设定的hyperparameter。
- 迭代更新所找的点。(这个点即为合适的参数组)
可将资料N随机分成batchs。Epoch:把所有的batch都看一次;update:每一次更新参数。
Batch size也是一个超参数。
【我为什么上传不了图片!哭哭】