前言
提示:这里可以添加本文要记录的大概内容:
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。
提示:以下是本篇文章正文内容,下面案例可供参考
一、权重衰减
1.生成数据
代码如下(示例):
import torch
from torch import nn
import d2l.torch as d2l
# 生成数据
n_train,n_test,num_inputs,batch_size=20,100,200,5
true_w,true_b=torch.ones((num_inputs,1))*0.01,0.05
train_data=d2l.synthetic_data(true_w,true_b,n_train)
train_iter=d2l.load_array(train_data,batch_size)
test_data=d2l.synthetic_data(true_w,true_b,n_test)
test_iter=d2l.load_array(test_data,batch_size,is_train=False)
2.读入数据
权重衰减,输入lambd:
def train(lambd):
loss=nn.MSELoss()
net=nn.Sequential(nn.Linear(num_inputs,1))
num_epochs,lr=100,0.003
trainer=torch.optim.SGD([{
"params": net[0].weight,
'weight_decay': lambd},{
'params':net[0].bias
}],lr=0.003)
animitor=d2l.Animator(xlabel='epoch',ylabel='loss',xlim=[5,num_epochs],yscale='log',
ylim=[1e-3,1e2],legend=['train','test'])
for epoch in range(num_epochs):
for X,y in train_iter:
with torch.enable_grad():
trainer.zero_grad()
l=loss(net(X),y)
l.backward()
trainer.step()
if (epoch+1)%5==0:
animitor.add(epoch+1,(d2l.evaluate_loss(net,train_iter,loss),
d2l.evaluate_loss(net,test_iter,loss)))
print('w的L2范式是:',net[0].weight.norm().item())
train(lambd=0)
该处使用的url网络请求的数据。
总结
提示:这里对文章进行总结:
例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。