产品经理也能动手实践的AI(六)- 从头开始训练一个简单的神经网络

正文共: 2919字 6图

预计阅读时间: 8分钟

cfad506aae36fd509cf4fd14fad9e627.jpeg终于把lesson5写完了,这节课太零碎了,把之前的很多例子都穿插进来(SGD、Mnist、Imdb……)而且知识点也非常多,很容易混淆,反而觉得第六课简单,梳理了很多内容,可以边看边和之前的内容贯穿起来。

1.概览

  • 嵌入,矩阵乘积内的一环,拆解后可改造,加入Bias,然后提高准确率

  • 反向传播,训练一波数据的过程(根据loss func 调整 parameters的过程)

  • 从零开始创建CNN,通过Adam算法加速SGD

2.1 机器学习概念

  • Back Propagation 反向传播:就是这次做菜咸了,下次调整下少放点盐的过程,loss function反应的就是咸味儿,weights指得就是盐d60f97796e28c92c7b4bf842a357abc7.png

  • Parameters:相当于烹饪手法,也叫Weights

  • Activations:相当于食材

  • Affine Function 仿射函数:相当于炒菜的过程,约等于矩阵乘积,因为用Activations与Parameters进行矩阵乘积时,准说说是Affine Function在工作

  • Activation Function 激活函数:相当于装盘的过程,把原有的食材位置不变,换一种展示方式,比如ReLU= max(0,x)就是把小于零的部分直接转化成0;Sigmoid,将所有数转化到0,1区间

  • Universal Approximation Theorem 通用逼近定理:核心构成要素是Affine Function和Activation Function,可以定义任意函数

  • Embedding:类似于对号入座,将Factor映射到一条条评分记录上,用于之后的loss function运算86377ba9d7322f314b4a1adbba274d16.jpeg

  • Bias:一种特殊的Factor,反应的是一种客观事实,比如这个电影就是很多人都喜欢,而这个参数不会受到反向传播的影响

  • Factors:用户喜欢一个电影的原因,比如有xx明星,是喜剧,是新电影

  • Weight Decay 权重衰减:是Regularization的一种,本质上是loss function中的一种惩罚机制,防止Parameters过多导致的overfit4649e58e2a0295a84d7397138f6ee626.png

2.2 FastAI概念

  • ResNet34:能区分1000种物体的图像分类模型

  • Create_CNN:就是一个迁移学习的过程,把最后一层的Weight,拆成2个,中间放个ReLU,因为不需要识别那么多物种,可能只需要3-5种;然后把之前的Weight都Freeze,这样反向传播的时候不会影响到之前的层

  • Unfreeze:解冻整个模型,就是反向传播可以作用在所有层的Weights上

  • Freeze_to:冻结到倒数第几层

  • Discriminative Learning Rates 有差别的学习率:learn.fit_one_cycle(1, lr=1e-3))

    • 只有一个lr,就所有层都应用这个

    • slice(1e-3):最后一层是1e-3,之前都是1e-3/3

    • slice(1e-5,1e-3):最后一层1e-3,第一层1e-5,中间等间距分布

  • Adam :就像股票中买a,b两只股票,假设长期市值是趋于稳定的,希望通过合理的资产配置,来达到收益最大化,Adam同时使用Momentum和RMSProp两种策略

    • 原始SGD:跌了就抛,涨了就买,于是频繁的在a,b股票中移动资金,到最后没挣几个钱

    • Momentum:将本次涨跌只作为10%的因素,剩下90%是基于上次的判断,于是会更快找到合理的配置比例

    • RMSProp:累积变化幅度,如果a的梯度每次都很大,则a少变一点,就像有些股票每次涨跌幅度都很大

  • fit_one_cycle:lr从小到大再到小,Momentum从大到小再到大08c6131aa834c4b8ac1dc7c27e5b2975.png

  • 交叉熵 Cross-entropy:一种loss function,用于计算多个结果的预测,并且自信的正确预测值loss低,自信的错误预测值loss高b470d6cdbf439f5749de0b4389180ef8.jpeg

  • softmax:一种激活函数,让所有数字相加等于1,换句话说就是求每个值的占比

2.3 Python命令

  • a.sub_:a = a - x

  • pickle.load:ptyhon的一种文件格式,通过load读取

  • open_image(path/'black'/'00000021.jpg’):显示图像,还有如下3种常见的

    • data.show_batch(rows=3, figsize=(7,6))

    • plt.imshow(x_train[0].reshape((28,28)), cmap="gray") x_train.shape

    • interp.plot_top_losses(9, figsize=(15,11))

2.4 Pytorch命令

  • x,y = next(iter(data.train_dl)):获取DataLoader里的下一个mini-batch

3 如何从头创建一个神经网络,通过3个例子来演示,主要包含forward和backward两部分:

L1 最原始的线性拟合SGD

Forward:

y_hat = x @ a

Backward:

def update():
    loss = mse(y, y_hat)
    if t % 10 == 0: print(loss)
    loss.backward()
    with torch.no_grad():
        a.sub_(lr * a.grad)
        a.grad.zero_()

L2 手写数字拟合 Mnist_Logistic

Forward:

class Mnist_Logistic(nn.Module):
    def __init__(self):
        super().__init__()
        self.lin = nn.Linear(784, 10, bias=True)


    def forward(self, xb): return self.lin(xb)

Backward:

def update(x,y,lr):
    wd = 1e-5
    y_hat = model(x)
    # weight decay
    w2 = 0.
    for p in model.parameters(): w2 += (p**2).sum()
    # add to regular loss
    loss = loss_func(y_hat, y) + w2*wd
    loss.backward()
    with torch.no_grad():
        for p in model.parameters():
            p.sub_(lr * p.grad)
            p.grad.zero_()
    return loss.item()

L3 多层加速手写数字拟合 Mnist_NN

Forward:

class Mnist_NN(nn.Module):
    def __init__(self):
        super().__init__()
        self.lin1 = nn.Linear(784, 50, bias=True)
        self.lin2 = nn.Linear(50, 10, bias=True)


    def forward(self, xb):
        x = self.lin1(xb)
        x = F.relu(x)
        return self.lin2(x)

Backward:

def update(x,y,lr):
    opt = optim.Adam(model.parameters(), lr)
    y_hat = model(x)
    loss = loss_func(y_hat, y)
    loss.backward()
    opt.step()
    opt.zero_grad()
    return loss.item()

相关阅读

产品经理也能动手实践的AI (一)|(二)|(三)|(四)|(五)

人人都能搞懂的AI (一)|(二)|(三)|(四)

b556f0fe8507575e710918223925f0b2.png

如果你喜欢思考,别忘记关注+置顶公众号哦!

我是Hawk,8年产品经理,目前专注AI机器学习。

2c75dfb4c9ed324200d1349a5646bf79.jpeg

好看的人都点了在看 de8fa2f36cd4ceba4b74450f2b509e67.gif

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值