智能技术_9:神经网络基础

本文介绍了神经网络的基础知识,包括线性回归和逻辑回归的限制,详细探讨了线性函数和S型函数在神经网络中的应用,并通过梯度下降法解释了权重和偏置的修正过程。实验部分展示了在Rtudio中进行的线性回归、逻辑回归和神经网络的实现,以及使用TensorFlow+Keras进行的进一步实验。
摘要由CSDN通过智能技术生成

智能技术_1:安装TensorFlow和Keras
智能技术_2:大数据分析与机器学习概论
智能技术_3:关联规则
智能技术_4:贝叶斯分类和贝叶斯网络
智能技术_5:决策树
智能技术_6:K个最近邻居(医疗旅游)
智能技术_8:回归方法(智能交通)
智能技术_9:神经网络基础


# 写于2021.04.15
# 本文为学习笔记,用的ppt是陈志华教授版,侵删
# 笔记只为交流,入门小白,有错望留言纠正
# TensorFlow+Keras 内容后面补
# 总结不易 望赞鼓励

1 神经网络在学什么

  • 描述
  • 因果
  • 预测

关于逻辑回归详细介绍:https://zhuanlan.zhihu.com/p/74874291

1.1 本章学什么

  • 线性回归(线性函数)
  • 逻辑回归 (s型函数)
  • 神经网络 (线性函数)
  • 神经网络 (s型函数)

杨鸽理解

  • 神经网络是有隐藏层的,而回归没有隐藏层。
  • 神经网络有很多方法,其中用到线性函数,S型函数 只是其中方法之一;
  • 梯度下降是缩小误差的一种高效的方法,还可以随机数,误差小了就更新,但这样效率很低;

1.2 线性回归和逻辑回归的限制

参数之间要相互独立 不受影响,如果相互影响 那么结果会误差很大。

例子-XOR互斥:
在这里插入图片描述>在这里插入图片描述

因为 b w有XOR现象,应该加一层神经网络来计算出w,b的权重 这样结果会更准确

在这里插入图片描述

2 线性回归/线性函数(梯度下降)

我个人认为梯度下降是种方法,可以用来指导机器学习的,来修正估计值的,也可以随机出来数 误差减小的来修正,但对比梯度下降效率很低。

2.1 一元梯度下降

在这里插入图片描述

2.2 二元梯度下降

在这里插入图片描述

2.3 对梯度下降的物理理解

在这里插入图片描述

  • 我们能看出来 w估计值w^ 的斜率 跟误差δ和x值成正比
  • b估值修正 跟b^的斜率,也就是误差δ成正比

3 逻辑回归/S型函数(梯度下降)

逻辑回归中的梯度下降
公式⑤思想非常重要

在这里插入图片描述

在这里插入图片描述

4 神经网络(线性函数、梯度下降)

  • 个人认为 有隐藏层就是神经网络
  • 梯度下降用于神经网络权重和误差项

在这里插入图片描述

4.1 W2、B2的估计值修正

在这里插入图片描述

4.2 W1、B1的估计值修正

在这里插入图片描述

5 神经网络(S型函数、梯度下降)

在这里插入图片描述

5.1 W2、B2的估计值修正

在这里插入图片描述

5.2 W1、B1的估计值修正

在这里插入图片描述

在这里插入图片描述

6 神经网络(多个输入参数)

在这里插入图片描述

6.1 线性

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

羊老羊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值