机器学习(1)--神经网络初探

本文仅通过numpy,演示神经网络的计算方法,其实神经网络的计算相当于完成线性方程的求解,
当然,这个求解过程,不是线性方程的求解方法,而是通机器学习的神经网络方法进行求解,

本文的目的仅仅只是讲解神经网络的计算方法与流程,

离完善的代码还有很大的距离,你也可以使用如tensorflow等框架进行使用

可以参考我的另一篇文章  tensorflow实例(2)--机器学习初试


# -*- coding:utf-8 -*- 
import numpy as np
'''
双曲正切函数(tanh) 与 双曲函数,在神经网络运行过程要使用当,当然,这样的函数组不只这组,还有其他的,
我们这里不研究数理,只是为了把神经网络计算的流程交待清楚,所以就不多做解释数理方面的东西,只要知道这在计算loss是用到就是
'''
def tanh(x):
    return np.tanh(x)
def tanh_deriv(x):
    return 1.0 - np.tanh(x)*np.tanh(x)

class npNN():
    def __init__(self,w,b,layers):
        '''
            w 为线性方程上各维度的系数,
            b为常数
            即 y= a0 * x0 + a1 * x1 + a2 * x2  + a3 * x3 + b  其中w=[a0,a1,a2,a3]  

            layers,是指神经网络的中间层,特别强调,是中间层,如果为空则表示没有中间层
            因为第一层即是w传参,最后一层的维度即是y值
            下面的第一行就将对层数进行调整,形成完整的神经网络
        '''
        layers=[len(w)]+layers+[1] #补全神经网络层
        w=(w if isinstance(w,np.
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值