原版视频链接3.3 最简单也同样最常用的线性模型【斯坦福21秋季:实用机器学习中文版】_哔哩哔哩_bilibili
1.之前即使其他样本xi不是我们最终需要关注的但也因为要使得MSE等于0而去关注,消耗了算力。
2.算完Oi后不去做MSE优化而是先看它的一个能作为最终解的概率(用softmax())。
3.softmax,将向量化为一个概率向量,理想情况下其最高概率者与置信度最高者重合,同为递增函数,所以也将该模型泛指为线性模型。
4.交叉熵分析预测概率和真实概率的loss。因为yi除了一个1 其他都为0,要想使得loss小则要使得log~最大,使得yi=1乘到最大的y拔上也就是argmaxxi oi上并使其最大,得到的w和b则为所需