![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ML
Lzj000lzj
这个作者很懒,什么都没留下…
展开
-
机器学习基础
批量学习(batch learning)和在线学习(online learning)批量学习当模型训练之后就不再train,只用于test,当有新数据加入时,需要重新训练整个模型,这样的学习方式比较浪费时间和计算资源在线学习将训练数据分为多个mini-batch ,每一步的训练代价较小在线学习涉及到一个学习率的选取。学习率过大会导致模型忘记之前的训练数据,学习率过小会导致学习太慢,对新数据...原创 2019-07-09 14:02:03 · 308 阅读 · 0 评论 -
线性回归+逻辑回归+softmax回归
线性回归线性回归模型的均方差损失函数是一个凸函数,这意味着如果你选择曲线上的任意 两点,它们的连线段不会与曲线发生交叉(译者注:该线段不会与曲线有第三个交点)。这 意味着这个损失函数没有局部最小值,仅仅只有一个全局最小值。同时它也是一个斜率不能 突变的连续函数。这两个因素导致了一个好的结果:梯度下降可以无限接近全局最小值。 (只要你训练时间足够长,同时学习率不是太大 )。训练模型意味着找到一...原创 2019-07-14 20:24:48 · 276 阅读 · 0 评论 -
pytorch简单的线性回归
import torchimport torch.nn as nnimport numpy as npimport matplotlib.pyplot as plt# Hyper-parametersinput_size = 1output_size = 1num_epochs = 60learning_rate = 0.001# 拟合一个线性回归,y=w*x+bx_tr...转载 2019-07-06 18:21:38 · 164 阅读 · 0 评论 -
pytorch简单的逻辑回归
import torchimport torch.nn as nnimport torchvisionimport torchvision.transforms as transforms# Hyper-parameters input_size = 784num_classes = 10num_epochs = 5batch_size = 100learning_rate ...转载 2019-07-07 10:33:13 · 178 阅读 · 0 评论