[deeplearning-002] 单节点神经网络推导

这篇博客介绍了深度学习的基础——单节点神经网络,包括训练集定义、神经网络结构、激活函数(sigmoid)、输出计算、代价函数(MSE)、随机梯度下降优化以及正则化防止过拟合。文章还提到了代码实现与Logistic Regression的联系。
摘要由CSDN通过智能技术生成

这个例子是最基础的例子,深度学习是它的各种形式的扩展。几个关键点:神经网络结构,激活函数,向量化,随机梯度下降算法,是深度学习的基石。

1.训练集
设训练集合是 { x(i),y(i)}i=1...n ,其中 xR1×d x 是个向量,数据集有 n 个样本。

2.神经网络结构
一个神经元,有d+1个输入,前d个是向量 x 的输入,最后一个是b的输入。神经元的激活函数是sigmoid函数,也就是:

f(x)=11+exp(x)=11+ex

求导的话,就是 f(x)=f(x)(1f(x)) ,可以推导出来的。

3.神经网络的输出
对一个样本而言,计算神经元的输出。 x 和b作为输入,传递到神经元的应激函数之前的值是 xW+b ,其中 WR

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值