Deep Leaning 学习笔记(6)—— DeepLearning中学习算法的一般架构

一般架构

构建学习算法的一般架构,包括:
初始化参数
计算成本函数及其梯度
使用优化算法(梯度下降)
按照正确的顺序将上面的三个函数集合到一个主模型函数中。

常用的包package

import numpy as np
import matplotlib.pyplot as plt
import h5py
import scipy
from PIL import Image
from scipy import ndimage
from lr_utils import load_dataset

%matplotlib inline

读取数据 Loading the data (cat/non-cat)

train_set_x_orig, train_set_y, test_set_x_orig, test_set_y, classes = load_dataset()

train_set_x_orig 的格式为(m,px,px,3)

数据预处理要点

你需要记住的是:
预处理新数据集的常见步骤如下:
找出问题的大小和形状(m_train, m_test, num_px,…)
重新定义数据集,使每个示例现在都是一个大小向量(num_px * num_px * 3,1),即总体样本X为(px * px * 3, m),保证每一列都是一个样本的向量
“标准化”的数据

训练要点

在这项工作中,你会采取以下步骤:
-初始化模型的参数
-通过最小化成本来学习模型的参数
-使用所学参数进行预测(在测试集中)
-分析结果并作出结论

构建算法的各个部分

建立神经网络的主要步骤是:
1.定义模型结构(例如输入特性的数量)
2.初始化模型的参数
循环:

  • 计算电流损耗(正向传播)
  • 计算电流梯度(反向传播)
  • 更新参数(梯度下降)
    您通常分别构建1-3个函数,并将它们集成到一个称为model()的函数中。

正向传播和反向传播

正向传播:Forward Propagation:

  • You get X
  • You compute A = σ ( w T X + b ) = ( a ( 1 ) , a ( 2 ) , . . . , a ( m − 1 ) , a ( m ) ) A = \sigma(w^T X + b) = (a^{(1)}, a^{(2)}, ..., a^{(m-1)}, a^{(m)}) A=σ(wTX+b)=(a(1),a(2),
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值