机器学习(1)--神经网络初探

这篇博客主要探讨了神经网络的计算方法和流程,虽然未提供完整的代码实现,但提到了可以借助tensorflow等框架。文章指出,为了专注于计算流程,权重表示的神经线没有定义对应的偏置,并且在学习率、权重初始值等方面存在简化处理,后续文章将对此进行更详细的解释。
摘要由CSDN通过智能技术生成
本文仅通过numpy,演示神经网络的计算方法,其实神经网络的计算相当于完成线性方程的求解,
当然,这个求解过程,不是线性方程的求解方法,而是通机器学习的神经网络方法进行求解,

本文的目的仅仅只是讲解神经网络的计算方法与流程,

离完善的代码还有很大的距离,你也可以使用如tensorflow等框架进行使用

可以参考我的另一篇文章  tensorflow实例(2)--机器学习初试


# -*- coding:utf-8 -*- 
import numpy as np
'''
双曲正切函数(tanh) 与 双曲函数,在神经网络运行过程要使用当,当然,这样的函数组不只这组,还有其他的,
我们这里不研究数理,只是为了把神经网络计算的流程交待清楚,所以就不多做解释数理方面的东西,只要知道这在计算loss是用到就是
'''
def tanh(x):
    return np.tanh(x)
def tanh_deriv(x):
    return 1.0 - np.tanh(x)*np.tanh(x)

class npNN():
    def __init__(self,w,b,layers):
        '''
            w 为线性方程上各维度的系数,
            b为常数
            即 y= a0 * x0 + a1 * x1 + a2 * x2  + a3 * x3 + b  其中w=[a0,a1,a2,a3]  

            layers,是指神经网络的中间层,特别强调,是中间层,如果为空则表示没有中间层
            因为第一层即是w传参,最后一层的维度即是y值
            下面的第一行就将对层数进行调整,形成完整的神经网络
        '''
        layers=[len(w)]+layers+[1] #补全神经网络层
        w=(w if isinstance(w,np.
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值