这篇博客主要记录我在看机器学习相关内容中觉得比较基础又比较容易忘记的内容,方便自己回顾,这些博客解释的都比较详尽也方便理解。
概率统计:
极大似然估计详解
逻辑回归部分:
逻辑回归(logistic regression)的本质——极大似然估计
交叉熵代价函数(损失函数)及其求导推导(Logistic回归的交叉熵)
softmax的log似然代价函数(公式求导)
范数概念:
几种范数的简单介绍
范数(机器学习中的使用)包括L1、L2正则化的理解
激活函数:
神经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus
卷积:
卷积层和池化层学习
padding参数为SAME和VALID的区别
LRN (Local Response Normalization,即局部响应归一化层)
【TensorFlow】一文弄懂CNN中的padding参数
待更新中…