![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
长笔记
文章平均质量分 89
比较长的文章,对某段内容的总结
UvwxyZ666
这个作者很懒,什么都没留下…
展开
-
笔记:Softmax回归的Python实现
实现softmax由三个步骤组成:对每个项求幂(使用exp对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;将每一行除以其规范化常数,确保结果的和为1。return X_exp / partition # 这里应用了广播机制对这段代码的理解可以参考笔记小结:Softmax回归预备知识。# torch.matmul即为矩阵乘法# X.reshape(-1,W.shape[0])中-1表示自己算一下行数,# W.shape[0]则表示要把X的列数变成W的行数,以便于矩阵乘法。原创 2024-07-12 08:06:11 · 735 阅读 · 0 评论 -
笔记:线性回归的Python实现
"""线性回归模型""""""均方损失"""def sgd(params, lr, batch_size): #优化算法与训练这两部分是核心,也是最难懂的地方"""小批量随机梯度下降"""# """线性回归模型"""初始化模型参数# w,b#输出:均方误差 mean square error MSE随机梯度下降法 stochastic gradient descent SGD。原创 2024-07-09 10:46:16 · 897 阅读 · 0 评论