ML
Lzj000lzj
这个作者很懒,什么都没留下…
展开
-
机器学习基础
批量学习(batch learning)和在线学习(online learning) 批量学习当模型训练之后就不再train,只用于test,当有新数据加入时,需要重新训练整个模型,这样的学习方式比较浪费时间和计算资源 在线学习将训练数据分为多个mini-batch ,每一步的训练代价较小 在线学习涉及到一个学习率的选取。学习率过大会导致模型忘记之前的训练数据,学习率过小会导致学习太慢,对新数据...原创 2019-07-09 14:02:03 · 301 阅读 · 0 评论 -
线性回归+逻辑回归+softmax回归
线性回归 线性回归模型的均方差损失函数是一个凸函数,这意味着如果你选择曲线上的任意 两点,它们的连线段不会与曲线发生交叉(译者注:该线段不会与曲线有第三个交点)。这 意味着这个损失函数没有局部最小值,仅仅只有一个全局最小值。同时它也是一个斜率不能 突变的连续函数。这两个因素导致了一个好的结果:梯度下降可以无限接近全局最小值。 (只要你训练时间足够长,同时学习率不是太大 )。 训练模型意味着找到一...原创 2019-07-14 20:24:48 · 274 阅读 · 0 评论 -
pytorch简单的线性回归
import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # Hyper-parameters input_size = 1 output_size = 1 num_epochs = 60 learning_rate = 0.001 # 拟合一个线性回归,y=w*x+b x_tr...转载 2019-07-06 18:21:38 · 161 阅读 · 0 评论 -
pytorch简单的逻辑回归
import torch import torch.nn as nn import torchvision import torchvision.transforms as transforms # Hyper-parameters input_size = 784 num_classes = 10 num_epochs = 5 batch_size = 100 learning_rate ...转载 2019-07-07 10:33:13 · 176 阅读 · 0 评论