吴恩达机器学习 第二课 week1 构建简单的人工神经网络

目录

01 学习目标

02 实现工具

03 问题陈述

04 人工神经网络

4.1 人工神经网络原理

4.2 基于tensorflow构建人工神经网络

05 总结


01 学习目标

      (1)理解人工神经网络的实现原理

      (2)掌握基于tensorflow构建简单的人工神经网络

02 实现工具

     (1)代码运行环境

              Python语言,Jupyter notebook平台

     (2)所需模块

              numpy,matplotlib,tensorflow,lab_coffee_utils,logging

           (lab_coffee_utils是吴恩达老师编写的用于读取数据和绘图的包)

03 问题陈述

       咖啡豆的烘焙与烘焙温度和时间有关,烘焙结果可分为两种情况:烘焙成功和烘焙失败。烘焙数据为随机生成,为200×3的张量格式,数据如下:

      数据中,第1列为烘焙温度,第二列为烘焙时间,第3列为烘焙结果:成功为1、失败为0.。

      需求是:根据现有数据构建一个人工神经网络,预测咖啡豆烘焙组合为(190,13)和(200,17)的结果。

04 人工神经网络

4.1 人工神经网络原理

     (1)人工神经网络是一种模仿生物神经网络的计算模型。

       两个要素:人工神经元(节点)连接

       节点负责对接收的信息进行计算,连接负责将节点计算结果传递给下个节点。人工神经网络中人为地将节点进行了分层,每1层包含若干节点。如下图,3个中间层称为隐藏层,最后1层称为输出层。

     (2)结构:每1个节点都是1个回归模型,同1层中n个节点就有n个模型。输入的信息进入该层会交给n个节点进行计算,同一层内采用同类算法(称为激活函数),如下图所示。神经网络的整体行为不取决于单个节点或单层的特征,而是由整个系统决定。

  (以上为人工神经网络的基本结构,即前馈神经网络,同一层内不同节点间通常没有直接连接。而一些复杂的神经网络结构允许层内神经元之间进行连接,如递归神经网络和卷积神经网络等)

     (3) 两个核心过程:前向传播反向传播

       前向传播:基于网络结构,逐层计算数据得到预测结果和误差、并正向传递。反向传播:基于链式法则,反向逐层计算各层参数梯度误差,调整更新神经网络参数。两者相互作用,构成循环。

     (4)应用:神经网络具有自适应、自组织和自学习能力,能够处理各种变化的信息,具有智能特性。应用领域包括模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等。

4.2 基于tensorflow构建人工神经网络

     (1)导入所需模块

import numpy as np
import matplotlib.pyplot as plt
plt.style.use('./deeplearning.mplstyle')
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from lab_coffee_utils import load_coffee_data, plt_roast, plt_prob, plt_layer, plt_network, plt_output_unit
import logging
logging.getLogger("tensorflow").setLevel(logging.ERROR)
tf.autograph.set_verbosity(0)

       (上面最后2行代码是设置只显示error信息,不显示警告等其他信息)

     (2)导入(生成)训练数据并绘制

X,Y = load_coffee_data()
plt_roast(X,Y)

      (X为200×2数据,第1列温度、第2列时间,Y为200×1数据,内容为0或1.) 

       运行以上代码,结果如下(图中×为1、○为0):

     (3)数据预处理(正则化)

norm_l = tf.keras.layers.Normalization(axis=-1)
norm_l.adapt(X)  # 计算均值和方差
Xn = norm_l(X)
print(Xn)

         运行以上代码,结果如下:

      (4)构建人工神经网络

# 设置随机种子以确保每次运行的权重相同
tf.random.set_seed(1234)  
# 定义神经网络模型框架
model = Sequential(
    [
        tf.keras.Input(shape=(2,)),
        Dense(3, activation='sigmoid', name = 'layer1'),
        Dense(1, activation='sigmoid', name = 'layer2')
     ]
)
# 打印网络框架模型参数
model.summary()
# 编译模型
model.compile(
    loss = tf.keras.losses.BinaryCrossentropy(),
    optimizer = tf.keras.optimizers.Adam(learning_rate=0.01),
)
# 用训练数据拟合模型,计算权重
model.fit(
    Xn,Y,            
    epochs=10,
)
# 读取打印训练后的权重
W1, b1 = model.get_layer("layer1").get_weights()
W2, b2 = model.get_layer("layer2").get_weights()
print("W1:\n", W1, "\nb1:", b1)
print("W2:\n", W2, "\nb2:", b2)

     (创建了1个包含3个神经元、激活函数用sigmoid的隐藏层,损失函数(losses)用BinaryCrossentropy,优化器(optimizers)用Adam,训练次数(epochs)为10次)

      运行以上代码,结果如下:

     (5)数据预测

# 读取需预测的数据
X_test = np.array([
    [190,13], 
    [200,17]]) 
# 数据正则化
X_testn = norm_l(X_test)
# 结果预测
predictions = model.predict(X_testn)
# 将计算结果转化为0/1显示
yhat = (predictions >= 0.5).astype(int)
print(f"decisions = \n{yhat}")

     运行以上代码,结果如下:

   decisions = 
    [[0]
     [0]]

05 总结

     (1)人工神经网络实质上是个复杂的自动化回归模型,由若干算法组合而成、可以循环计算、自动更新权重和学习率等参数。

     (2) 人工神经网络构建步骤:定义框架>编译模型>训练模型,训练模型的核心工作是前向传播(计算预测值和损失)和反向传播(计算梯度并更新权重)。

  • 31
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值