吴恩达作业ex4:反向传播

吴恩达作业
摘要由CSDN通过智能技术生成

导入数据

import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
from scipy.io import loadmat
data=loadmat('ex4data1.mat')
data
{'__header__': b'MATLAB 5.0 MAT-file, Platform: GLNXA64, Created on: Sun Oct 16 13:09:09 2011',
 '__version__': '1.0',
 '__globals__': [],
 'X': array([[0., 0., 0., ..., 0., 0., 0.],
        [0., 0., 0., ..., 0., 0., 0.],
        [0., 0., 0., ..., 0., 0., 0.],
        ...,
        [0., 0., 0., ..., 0., 0., 0.],
        [0., 0., 0., ..., 0., 0., 0.],
        [0., 0., 0., ..., 0., 0., 0.]]),
 'y': array([[10],
        [10],
        [10],
        ...,
        [ 9],
        [ 9],
        [ 9]], dtype=uint8)}
X=data['X']
y=data['y']
X.shape,y.shape
((5000, 400), (5000, 1))

对y进行onehot编码

from sklearn.preprocessing import OneHotEncoder
encoder=OneHotEncoder(sparse=False)
y_onehot=encoder.fit_transform(y)
y_onehot.shape
(5000, 10)
y[0]
array([10], dtype=uint8)
y_onehot[0,:]
array([0., 0., 0., 0., 0., 0., 0., 0., 0., 1.])

模型实现

我们要为此练习构建的神经网络具有与我们的实例数据(400 +偏置单元)大小匹配的输入层,25个单位的隐藏层(带有偏置单元的26个),以及一个输出层, 10个单位对应我们的一个one-hot编码类标签。

#定义sigmoid函数
def sigmoid(z):
    return 1.0/(1.0+np.exp(-z))
#定义前向传播函数
def forward_propagate(X,theta1,theta2):
    
    #获取样本数
    m=X.shape[0]
    
    #实现正向传播
    a1=np.insert(X,0,values=np.ones(m),axis=1)#插入1列全为1的元素
    z2=a1*theta1.T
    a2=np.insert(sigmoid(z2),0,values=np.ones(m),axis=1)
    z3=a2*theta2.T
    h=sigmoid(z3)
    
    return a1,z2,a2,z3,h
#定义代价函数
def cost(params,input_size,hidden_size,num_labels,X,y,lamda):
    # INPUT:神经网络参数,输入层维度,隐藏层维度,训练数据及标签,正则化参数
    # OUTPUT
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值