机器学习
有毒的大妖怪
请:
节制、缄默、秩序、决心、节俭、勤奋、诚信、正义、中庸、清洁、平静、贞洁、谦卑
请不要:
浪费时间、关心琐事、与人争论
展开
-
第九章 前向神经网络(一)
第一节 多层感知机和布尔函数问题一:多层感知机表示异或逻辑时至少需要几个隐含层(仅考虑二元输入)首先是没有隐含层,等同于逻辑回归,设输入变量为x,y,有Z=sigmod(AX+BY+C)Z=sigmod(AX+BY+C)Z=sigmod(AX+BY+C)显然z是关于X和Y递增的,然是根据异或运算的真值表:X同为0时,Y增加,Z也增加,表明Y的系数为正;X同为1时,Y增加,Z减小,表明Y的系数为...原创 2019-12-13 21:56:19 · 973 阅读 · 0 评论 -
第九章 前向神经网络
第二节 深度神经网络中的激活函数问题1:常用激活函数及导数多层神经网络相当于一层,因此每层后面添加一个激活函数sigmod、tanh、ReLu的原函数和导函数(其中,tanh(x)=2*sigmod(2x)-1)问题2:为什么sigmod和tanh导致梯度消失?它俩的导数在变量x极大或者极小时趋于0,问题3:ReLu系列激活函数相对sigmod和tanh的优点,局限及改进优点...原创 2019-12-12 22:04:55 · 280 阅读 · 0 评论