自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 吴恩达机器学习_可选实验_SoftMax函数

在本实验中,我们将探索 softmax 函数。在求解多类分类问题时,此函数在 Softmax 回归和神经网络中使用。注意:通常,在本课程中,笔记本使用以 0 开始计数并以 N-1 结束的约定,,虽然讲座以 1 开始,以 N 结束,这是因为在讲课时,代码通常会从 0 开始迭代,将 1 数到 N 会导致方程式更清晰、更简洁。这个笔记本包含的方程式比实验室的典型方程式多,因此将打破惯例,将 1 计算到 N。

2024-07-25 17:18:23 604

原创 吴恩达机器学习_可选实验_多分类问题

在本次实验中,你将会使用神经网络来实现多分类问题。

2024-07-24 18:27:42 858

原创 吴恩达机器学习_可选实验_简单的神经网络(numpy实现)

在本实验中,我们将使用 Numpy 构建一个小型神经网络。这将是您在 Tensorflow 中实现的同一“咖啡烘焙”网络。

2024-07-24 17:00:22 501

原创 吴恩达机器学习_可选实验_简单的神经网络

在本次实验中,我们将构建一个简单的神经网络。

2024-07-24 15:17:20 912

原创 吴恩达机器学习_可选实验_神经元和层

在本实验中,我们将探索神经元/单元和层的内部工作原理。特别是,该实验室将与您在课程 1 中掌握的模型、回归/线性模型和逻辑模型进行比较。该实验室将介绍 Tensorflow,并演示如何在该框架中实现这些模型。

2024-07-24 12:18:35 929

原创 (吴恩达机器学习)5.神经网络模型实现

首先先要指定所使用的损失函数,从而构成我们的成本函数。和逻辑回归所使用的sigmoid函数一致,这里使用的也是-y*log(y)-(1-y)log(1-y)。在tensorflow中,该函数有个专门的术语叫作二元交叉熵函数。值得一提的是,像上一章所述,至少目前我所学习的神经网络中的神经元实际上就是一个一个逻辑回归单元同时注意,如果神经网络模型所解决的并不是一个分类问题,那么我们在指定损失函数时就不在使用该二元交叉熵函数了。这时使用回归的成本函数或许会更好。

2024-07-24 09:57:38 813

原创 (吴恩达机器学习)4.神经网络

layer_1 = Dense(units = 3, activation = 'sigmoid')表示第一层的定义,units = 3说明有三个神经元,activation = 'sigmoid'表示激活的输出使用的是逻辑回归的sigmoid函数计算。输入的数据在逻辑回归单元的计算下,得到的概率,每个神经元都可以对输入的数据进行处理,从而得到了一个数据向量,就是该层输出的激活。输入到layer中的数据是输入数据,从隐藏层输出的数据叫激活,从output layer输出的数据是最终获得的输出数据。

2024-07-21 15:37:21 704 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除