本文仅通过numpy,演示神经网络的计算方法,其实神经网络的计算相当于完成线性方程的求解,
当然,这个求解过程,不是线性方程的求解方法,而是通机器学习的神经网络方法进行求解,
当然,这个求解过程,不是线性方程的求解方法,而是通机器学习的神经网络方法进行求解,
本文的目的仅仅只是讲解神经网络的计算方法与流程,
离完善的代码还有很大的距离,你也可以使用如tensorflow等框架进行使用
可以参考我的另一篇文章 tensorflow实例(2)--机器学习初试
# -*- coding:utf-8 -*-
import numpy as np
'''
双曲正切函数(tanh) 与 双曲函数,在神经网络运行过程要使用当,当然,这样的函数组不只这组,还有其他的,
我们这里不研究数理,只是为了把神经网络计算的流程交待清楚,所以就不多做解释数理方面的东西,只要知道这在计算loss是用到就是
'''
def tanh(x):
return np.tanh(x)
def tanh_deriv(x):
return 1.0 - np.tanh(x)*np.tanh(x)
class npNN():
def __init__(self,w,b,layers):
'''
w 为线性方程上各维度的系数,
b为常数
即 y= a0 * x0 + a1 * x1 + a2 * x2 + a3 * x3 + b 其中w=[a0,a1,a2,a3]
layers,是指神经网络的中间层,特别强调,是中间层,如果为空则表示没有中间层
因为第一层即是w传参,最后一层的维度即是y值
下面的第一行就将对层数进行调整,形成完整的神经网络
'''
layers=[len(w)]+layers+[1] #补全神经网络层
w=(w if isinstance(w,np.