【2022吴恩达机器学习】学习笔记神经网络部分2.0

本文介绍了如何用代码实现神经网络的推理,以烤咖啡豆的例子说明,通过建立多层神经网络进行判断。同时,探讨了在Tensorflow中数据的表示形式,通常使用矩阵来表示数据。接着,展示了如何搭建简单的神经网络模型,并解释了前向传播的过程,包括权重初始化和矩阵乘法。最后,讨论了强人工智能的发展,特别是自然语言处理在实现广义AI中的作用。
摘要由CSDN通过智能技术生成

神经网络

3.1如何用代码实现推理

  • 例1:烤咖啡豆,如何知道200度烤17分钟是否会产生好咖啡?

三角框内都能产生好咖啡

x是输入值,用Dense函数来建立一个有3个神经元的第一层,并使用Sigmoid作为激活函数;把x输入第一层a1;同样的方法建立第二层并把第一层的结果输入到第二层;最后判断最终结果。

  • 例2:手写数字分类模型

x是像素强度值的列表。

3.2Tensorflow中数据形式

Tensorflow是如何表示数据的?

 

单括号代表一维向量,只是一个数字列表,当使用线性回归和逻辑回归时,使用一维向量来表示输入特征x;对于TensorFlow,使用矩阵来表示数据 。

a1代表1*3的矩阵,.Tensor为TensorFlow表示矩阵的一种方式,.numpy表示可以转换回Numpy数组。

a2代表1*1的矩阵。

3.3搭建一个神经网络

直接把dense写在sequential里,不再显示的写layer_1、layer_2了

4.1单个网络层上的前向传播(python神经网络建模)

如何实现?

如图上标1表示的是第一层,下标1表示的是该层的第一个神经元;x为一维数组,不是二维矩阵;之后会讲到反向传播算法,wb先设定初始值(随机),之后根据训练样本从后向前更新参数;疑问:w2_1应该有三个元素才能和a1进行点积运算,为什么图片上是两个元素?

                           a1=np.array([a1_1,a1_2,a1_3])

4.2前向传播的一般实现(代码展示)

shape是numpy数组的一个属性,是tuple结构,shape[0]是行数,shape[1]是列数;大写W是一个矩阵。

5.1强人工智能

狭义AI(ANI):只能处理特定问题

广义AI(AGI):能够处理各种问题

通过自然语言处理正在逐渐实现广义AI,比如最近Google的LaMDA具有感情的新闻。

用np实现矩阵乘法

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值