神经网络之万能定理python-pytorch实现,可以拟合任意曲线

88 篇文章 11 订阅
37 篇文章 0 订阅

神经网络之万能定理python-pytorch实现,可以拟合任意曲线

博主,这几天一直在做这个曲线拟合的实验,讲道理,网上可能也有很多这方面的资料,但是博主其实试了很多,效果只能对一般的曲线还行,稍微复杂一点的,效果都不太好,后来博主经过将近一天奋战终于得到了这个最好的结果:

代码:

from turtle import shape
import torch
from torch import nn
import pandas as pd
import numpy as np
from scipy.optimize import curve_fit
import matplotlib.pyplot as plt
from  utils import  parameters
from scipy.optimize import leastsq
from turtle import title
import numpy as np
import matplotlib.pyplot as plt
import torch as t
from torch.autograd import Variable as var


class BP(t.nn.Module):
    def __init__(self):
        super(BP,self).__init__()
        self.linear1 = t.nn.Linear(1,100)
        self.s = t.nn.Sigmoid()
        self.linear2 = t.nn.Linear(100,10)
        self.relu = t.nn.Tanh()
        self.linear3 = t.nn.Linear(10,1)
        self.Dropout = t.nn.Dropout(p = 0.1)
        self.criterion = t.nn.MSELoss()
        self.opt = t.optim.SGD(self.parameters(),lr=0.01)
    def forward(self, input):
        y = self.linear1(input)
        y = self.relu(y)
     #  y=self.Dropout(y)
        y = self.linear2(y)
        y = self.relu(y)
       # y=self.Dropout(y)
        y = self.linear3(y)
        y = self.relu(y)
        return y


class BackPropagationEx:
    def __init__(self):
        self.popt=[]
    #def  fun(self,t,a,Smax,S0,t0):
    #           return Smax - (Smax-S0) * np.exp(-a * (t-t0));
    def curve_fitm(self,x,y,epoch):
      
        xs =x.reshape(-1,1)


        xs=(xs-xs.min())/(xs.max()-xs.min())
       

     #   print(xs)
        ys = y
        ys=(ys-ys.min())/(ys.max()-ys.min())
        xs = var(t.Tensor(xs))

        ys = var(t.Tensor(ys))
     #   bp = BP(traindata=traindata,labeldata=labeldata,node=[1,6,1],epoch=1000,lr=0.01)
      #  predict=updata(10,traindata,labeldata)
        model=BP()
        for e in range(epoch):
         #   print(e)
            index=0
            ls=0
            for x in xs:
                y_pre = model(x)
               #   print(y_pre)
                loss = model.criterion(y_pre,ys[index])
                index=index+1
         #       print("loss",loss)
               
                ls=ls+loss
                # Zero gradients
                model.opt.zero_grad()
                # perform backward pass
                loss.backward()
                # update weights
                model.opt.step()
            if(e%2==0 ):
                    print(e,ls)
        ys_pre = model(xs)
        loss = model.criterion(y_pre,ys)
        print(loss)




        plt.title("curve")
        plt.plot(xs.data.numpy(),ys.data.numpy(),label="ys")
        plt.plot(xs.data.numpy(),ys_pre.data.numpy(),label="ys_pre")
        plt.legend()
        plt.show()

    def predict(self,x):
        return self.fun(x,*self.popt)
    def plot(self,x,y,predict):
         plt.plot(x,y,'bo')
        #绘制拟合后的点
         plt.plot(x,predict,'r-')#拟合的参数通过*popt传入
         plt.title("BP神经网络")
         plt.show()

来看一下结果:
在这里插入图片描述

你们可能觉得这个拟合好像也一般啊,其实不是,我这个问题非常难,基本上网上的代码都是拟合效果很差的,数据的话,感兴趣的,可以私聊我,我可以发给你们。
这个实现想做到博主这个效果的,很难,因为博主做了大量实现,发现,其实严格意义上的万能定理的实现其实是需要很多的考虑的。
另外随着训练轮数和神经元的增加,实际上我们的效果可以真正实现万能定理。

  • 13
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值