2021-07-12


前言

提示:这里可以添加本文要记录的大概内容:
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。


提示:以下是本篇文章正文内容,下面案例可供参考

一、权重衰减

1.生成数据

代码如下(示例):

import torch
from torch import nn
import d2l.torch as d2l
# 生成数据
n_train,n_test,num_inputs,batch_size=20,100,200,5
true_w,true_b=torch.ones((num_inputs,1))*0.01,0.05
train_data=d2l.synthetic_data(true_w,true_b,n_train)
train_iter=d2l.load_array(train_data,batch_size)
test_data=d2l.synthetic_data(true_w,true_b,n_test)
test_iter=d2l.load_array(test_data,batch_size,is_train=False)

2.读入数据

权重衰减,输入lambd:

def train(lambd):
    loss=nn.MSELoss()
    net=nn.Sequential(nn.Linear(num_inputs,1))
    num_epochs,lr=100,0.003
    trainer=torch.optim.SGD([{
        "params": net[0].weight,
        'weight_decay': lambd},{
        'params':net[0].bias
    }],lr=0.003)

    animitor=d2l.Animator(xlabel='epoch',ylabel='loss',xlim=[5,num_epochs],yscale='log',
                          ylim=[1e-3,1e2],legend=['train','test'])

    for epoch in range(num_epochs):
        for X,y in train_iter:
            with torch.enable_grad():
                trainer.zero_grad()
                l=loss(net(X),y)
            l.backward()
            trainer.step()
        if (epoch+1)%5==0:
            animitor.add(epoch+1,(d2l.evaluate_loss(net,train_iter,loss),
                                  d2l.evaluate_loss(net,test_iter,loss)))

    print('w的L2范式是:',net[0].weight.norm().item())


train(lambd=0)

该处使用的url网络请求的数据。


总结

提示:这里对文章进行总结:
例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值