Neural Networks and Deep Learning习题解答--Sigmoid neurons simulating perceptrons

神经网络与深度学习习题解答

最近在看 Michael Nielsen的Neural Networks and Deep Learning,这本书是以网页的形式放在网上,非常合适入门,附上传送地址:http://neuralnetworksanddeeplearning.com/chap1.html#perceptrons

国内哈工大社会计算与信息检索研究中心将这本书翻译成中文版放在网络上,地址为:Neural Networks and Deep Learning中文翻译

该书sigmoid神经与一节有两个简单的小题,这里做个记录,欢迎讨论。

Sigmoid neurons simulating perceptrons, part I 

Suppose we take all the weights and biases in a network of perceptrons, and multiply them by a positive constant, c>0. Show that the behaviour of the network doesn't change.

sigmoid神经元模拟感知机(第一部分)

对一个由感知机组成的神经网络,假设将其中所有的权值和偏置都乘上一个正常数,c>0 , 证明网络的行为并不会发生改变。

注意该题说的是感知机,感知机的输入为0或1,可以有多个输入,输出也为0或者1,只有一个输出。

输出满足:

$$ output = \left\{ \begin{array}{rcl} 0 & & {wx+b \leq 0}\\ 1 & & {wx+b > 0}\\ \end{array} \right. $$

其中wx = w1x1+w2x2+w3x3+...,数字表示下标。在乘系数c之前wx+b>0或者wx+b<=0是确定的,那么c*(wx+b)的正负关系也是确定的,并且和乘以系数前相同,那么output就没有改变,原来是0现在也是0,是1现在也是1。

Sigmoid neurons simulating perceptrons, part II

Suppose we have the same setup as the last problem - a network of perceptrons. Suppose also that the overall input to the network of perceptrons has been chosen. We won't need the actual input value, we just need the input to have been fixed. Suppose the weights and biases are such that w⋅x+b≠0 for the input xx to any particular perceptron in the network. Now replace all the perceptrons in the network by sigmoid neurons, and multiply the weights and biases by a positive constant c>0. Show that in the limit as c→∞ the behaviour of this network of sigmoid neurons is exactly the same as the network of perceptrons. How can this fail when w⋅x+b=0 for one of the perceptrons?

sigmoid神经元模拟感知机(第二部分)

假设与上述问题相同的初始条件——由感知机构成的神经网络。假设感知机的所有输入都已经被选定。我们并不需要实际的值,只需要保证输入固定。假定对网络中任意感知机的输入x都满足w⋅x+b≠0。现在将网络中所有的感知机都替换为sigmoid神经元,然后将所有的权值和偏置都乘上一个正常数c>0 。 证明在极限情况即c→∞下,这个由sigmoid神经元构成的网络与感知机构成的网络行为相同。同时想想当w⋅x+b=0时为何不是如此?

对于sigmoid神经元,可表示为$$ \sigma (wx+b)$$。其中输入x可以是0到1的任意浮点数,输出也是,\sigma表示sigmoid函数,该函数图像如下

当z=wx+b>0时函数值大于0.5,当z<0时,函数值小于0.5。当$$ wx+b\neq 0$$时,由图像可知,当c趋近于无穷,c*(wx+b)也趋近于无穷,且符号不变,则输出值为0或者1,这与感知机结果一样, 感知机输出只有0或1,当wx+b>0的时候输出1,wx+b<0的时候输出0。因而极限情况下sigmoid神经元构成的网络与感知机构成的网络行为相同。

但是,wx+b=0当时候,$$ \sigma (wx+b)$$值为0.5,乘以c后,c(wx+b)仍然为0,因而输出不变仍为0.5,而感知机当输出只有0和1两种结果,这个时候即使c趋近于无穷,二者网络行为也不相同。

### 回答1: 《Neural Networks and Deep Learning》这本书被许多人评价为是关于深度学习的一本非常好的入门书。它以清晰易懂的方式解释了深度学习的核心概念,并且使用大量的图片和代码来帮助读者理解。如果您对深度学习感兴趣,那么这本书是一个不错的选择。 ### 回答2: 《Neural Networks and Deep Learning》是一本非常出色的书籍。它由Michael Nielsen撰写,提供了关于神经网络深度学习的详细而清晰的介绍。 这本书以易于理解和深入的方式解释了神经网络深度学习的基本概念和原理。它从基础知识开始,逐步引导读者了解神经元、多层神经网络、反向传播和激活函数等关键概念。通过直观的解释和简单的数学推导,读者可以很好地理解这些复杂的概念。 书中还包含了许多实例和示例,帮助读者将理论应用到实际问题中。例如,它详细介绍了如何使用神经网络解决手写数字识别的问题,并提供了相关的代码实现。这些实例不仅使得理论更加易于理解,也为读者提供了实际操作的经验和技能。 此外,《Neural Networks and Deep Learning》还提供了大量的引用文献和进一步阅读的建议,帮助读者进一步深入学习和探索相关领域的研究。这为读者进一步拓宽知识领域提供了便利。 总体而言,这本书不仅适合对神经网络深度学习感兴趣的初学者,也适合那些已经有一定了解但希望进一步加深理解的读者。它以简洁明了的方式传递了复杂的概念,提供了大量的实例和引用文献,是一本极具价值的学习资源。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值