从零开始学深度学习-01

这篇博客介绍了如何从零开始构建一个输入784,隐藏层分别为30和60节点,输出层为10节点的神经网络,应用于MINIST手写数字识别。博客中详细讲解了神经网络的结构,包括输入、隐藏和输出层,并提到了激活函数在逻辑回归模型中的应用,如sigmoid和softmax函数的实现。通过这个实例,读者将学习到深度学习的基础知识和实际操作技巧。
摘要由CSDN通过智能技术生成

从零开始学深度学习-01

例子以“手写一个输入784,第一层30,第二层60,输出层为10的神经网络,在MINIST数据集上训练,测试。”

  1. 神经网络:请添加图片描述该神经网络被称为两层神经网络,其具有两层权重W1和W2。中间层也称为隐含层。可以有多个隐含层。但只能有一个输入和输出层。
    隐含层具有激活函数,输出层也具有激活函数,两者可以使用不同的激活函数。
    逻辑回归模型(分类)的激活函数一定是sigmoid(二分类逻辑回归模型),softmax(多分类逻辑回归模型)
    sigmoid 代码实现如下:
def sigmoid(x):
   return 1/(1+np.exp(x)) 

softmax代码实现如下:

def softmax(x):
   Max=np.max(x)
   exp_x=np.exp(x-Max)
   sum_exp_x=np.sum(exp_x)
   y=exp_x/sum_exp_x
   return y

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值