吴恩达深度学习课后作业第五周-权重初始化以及正则化

init_utils.py 初始化部分的数据集和模型加载都在这个文件内reg_utils.py 正则化部分的数据集和模型加载都在这个文件内第一部分:初始化参数1.1:使用0来初始化参数。1.2:使用随机数来初始化参数。1.3:使用抑梯度异常初始化参数(参见视频中的梯度消失和梯度爆炸)。import numpy as npimport matplotlib.pyplot as pl...
摘要由CSDN通过智能技术生成

init_utils.py 初始化部分的数据集和模型加载都在这个文件内
reg_utils.py 正则化部分的数据集和模型加载都在这个文件内

第一部分:初始化参数

1.1:使用0来初始化参数。
1.2:使用随机数来初始化参数。
1.3:使用抑梯度异常初始化参数(参见视频中的梯度消失和梯度爆炸)。
import numpy as np
import matplotlib.pyplot as plt
import sklearn
import sklearn.datasets

import init_utils   #第一部分,初始化
import reg_utils    #第二部分,正则化

%matplotlib inline
加载数据集
train_X, train_Y, test_X, test_Y = init_utils.load_dataset()
train_X.shape
(2, 300)

在这里插入图片描述

模型加载
def model(X,Y,learning_rate=0.01,num_iterations=15000,print_cost=True,initialization="zeros",is_polt=True):
   
    """
    实现一个三层的神经网络:LINEAR ->RELU -> LINEAR -> RELU -> LINEAR -> SIGMOID

    参数:
        X - 输入的数据,维度为(2, 要训练/测试的数量)
        Y - 标签,【0 | 1】,维度为(1,对应的是输入的数据的标签)
        learning_rate - 学习速率
        num_iterations - 迭代的次数
        print_cost - 是否打印成本值,每迭代1000次打印一次
        initialization - 字符串类型,初始化的类型【"zeros" | "random" | "he"】
        is_polt - 是否绘制梯度下降的曲线图
    返回
        parameters - 学习后的参数

    """
    
    grads = {
   }
    costs = []
    m = X.shape[1]
    
    #使用一个三层的网络
    layers_dims = [X.shape[0],10,5,1]

    #选择初始化参数的类型
    if initialization == "zeros":
        parameters = initialize_parameters_zeros(layers_dims)
    elif initialization == "random":
        parameters = initialize_parameters_random(layers_dims)
    elif initialization == "he":
        parameters = initialize_parameters_he(layers_dims)
    else : 
        print("错误的初始化参数!程序退出")
        exit

    #开始学习
    for i in range(0,num_iterations):
        
        #前向传播
        a3 , cache = init_utils.forward_propagation(X,parameters)

        #计算成本        
        cost = init_utils.compute_loss(a3,Y)

        #反向传播
        grads = init_utils.backward_propagation(X,Y,cache)

        #更新参数
        parameters = init_utils.update_parameters(parameters,grads,learning_rate)

        #记录成本
        if i % 1000 == 0:
            costs.append(cost)
            #打印成本
            if print_cost:
                print("第" + str(i) + "次迭代,成本值为:" + str(cost))


    #学习完毕,绘制成本曲线
    if is_polt:
        plt.plot(costs)
        plt.ylabel('cost')
        plt.xlabel('iterations (per hundreds)')
        plt.title("Learning rate =" + str(learning_rate))
        plt.show()

    #返回学习完毕后的参数
    return parameters
1.1 初始化为0
def initialize_parameters_zeros(layers_dims):

    parameters = {
   }

    L = len(layers_dims) #网络层数

    for l in range(1,L):
        parameters["W" + str(l)] = np.zeros((layers_dims[l],layers_dims[l-1]))
        parameters["b" + str(l)] = np.zeros((layers_dims[l],1))

    return parameters
parameters = model(train_X, train_Y, initialization = "zeros",is_polt=True)
第0次迭代,成本值为:0.6931471805599453
第1000次迭代,成本值为:0.6931471805599453
第2000次迭代,成本值为:0.6931471805599453
第3000次迭代,成本值为:0.6931471805599453
第4000次迭代,成本值为:0.6931471805599453
第5000次迭代,成本值为:0.6931471805599453
第6000次迭代,成本值为:0.6931471805599453
第7000次迭代,成本值为:0.6931471805599453
第8000次迭代,成本值为:0.6931471805599453
第9000次迭代,成本值为:0.6931471805599453
第10000次迭代,成本值为:0.6931471805599455
第11000次迭代,成本值为:0.6931471805599453
第12000次迭代,成本值为:0.6931471805599453
第13000次迭代,成本值为:0.6931471805599453
第14000次迭代,成本值为:0.6931471805599453

在这里插入图片描述

1.2 随机数初始化
def initialize_parameters_random(layers_dims):

    np.random.seed(3
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值