感知机:二分类线性分类模型;f(x) = sign(wx+b).
感知机的损失函数:误分类点到超平面的总距离。
感知的优化算法:随机梯度下降法;每次随机选择误分类的点使其梯度下降。
当训练数据线性可分时,感知机学习算法原始形式跌代是收敛的。感知机学习算法存在许多解,这些解既依赖初值的选择,也依赖跌代过程中误分类点的选择顺序。
感知机的对偶问题:跌代出每个样本的正确分类的次数,然后用对偶公式直接累加。
感知机:二分类线性分类模型;f(x) = sign(wx+b).
感知机的损失函数:误分类点到超平面的总距离。
感知的优化算法:随机梯度下降法;每次随机选择误分类的点使其梯度下降。
当训练数据线性可分时,感知机学习算法原始形式跌代是收敛的。感知机学习算法存在许多解,这些解既依赖初值的选择,也依赖跌代过程中误分类点的选择顺序。
感知机的对偶问题:跌代出每个样本的正确分类的次数,然后用对偶公式直接累加。