初学深度学习,简单的神经网络样例

文章介绍了神经网络的基本概念,包括其层次结构从输入到输出,以及从感知机到神经网络的发展。它强调了数学上神经元如何通过输入*权重+偏值及激活函数转换输出。文中提供了一个使用numpy实现的简单神经网络例子,涉及sigmoid和identity激活函数,并展示了前向传播的过程。
摘要由CSDN通过智能技术生成

一、基本概念

1、神经网络可分为多层:输入层->中间层(0...N)->输出层

2、发展脉络:感知机->神经网络

3、数学关系:感知机(x1*w1 + x2*w2 + b)+激活函数h(x) = 神经元 ... 神经元

总的来说:‘输入*权重 + 偏值’的计算结果通过激活函数h(x)转换成一个神经元的输出值,再参与下一层神经元计算。

主要用途:

1、解决分类问题

2、解决回归问题

二、一个简单的例子

使用到的库numpy,例子来源《深度学习入门》。

import numpy as np

# 非线性激活函数(中间层)
def sigmoid(x):
    return 1.0 / (1.0 + np.exp(-x))

# 输出层激活函数
def identity(x):
    return x

def init_network():
    network = {}
    network['w1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
    network['b1'] = np.array([0.1, 0.2, 0.3])
    network['w2'] = np.array([[0.1, 0.4], [0.2, 0.4], [0.3, 0.6]])
    network['b2'] = np.array([0.1, 0.2])
    network['w3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
    network['b3'] = np.array([0.1, 0.2])
    return network

def forward_prop(network, x):
    W1, W2, W3 = network['w1'], network['w2'], network['w3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']

    a1 = np.dot(x, W1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1, W2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2, W3) + b3
    y = identity(a3)

    return y

network = init_network()
x = np.array([1.0, 0.5])
y = forward_prop(network=network, x=x)
print(y)

结果:[0.31442506 0.69147506]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值