- numpy和pytorch实现梯度下降法
1) numpy 梯度下降
2) pyhorch梯度下降
import torch
x = torch.randn(1,1,requires_grad =True) #x取随机值
learning_rate =0.1
epoches =10
for epoch in range(epoches):
y = x**2+2*x+1
y.backward()
print("grad",x.grad.data) #x的梯度值
x.data = x.data - learning_rate*x.grad.data #更新x
x.grad.data.zero_()
print(x.data)
- numpy和pytorch实现线性回归
(1) numpy
(2) pytorch
1)数据准备
2)模型设计
3)创建模型实例
4)设计判决准则
5) 使用优化方法
6) 测试
- pytorch实现一个简单的神经网络
(1)数据准备
(2) 网络定义
(3)定义优化器/损失函数并进行训练(拟合)