基于基础神经网络的实战演练(二)-简单的神经网络搭建

这篇博客介绍了人工神经网络的基础,包括感知器的工作原理和训练过程。讨论了线性分类问题,如XOR问题,并提出通过堆叠多个感知器(LTU)来构建多层感知器(MLP)解决非线性问题。还涉及了TensorFlow在训练MLP中的应用,以及使用sklearn进行数据预处理,如归一化、标准化。最后,展示了使用TensorFlow高级API训练MLP的步骤,并强调了代码的可读性和版本适应性。
摘要由CSDN通过智能技术生成

《参考书籍》

95-神经网络与深度学习-邱锡鹏

98-动⼿学深度学习-9月最新版

十、人工神经网络介绍,十一、训练深层神经网络,十二、分布式TensorFlow

 

 感知器,输入的数字和权重相连,形成总和,然后再用阶跃函数去处理其总和
训练感知器就是在训练其权重
上图就是最简单的单一的LTU,是作为简单的线性二元分类

Q1:bias神经元?
Q2:LTU中,当两个神经元具有相同的输出时,他们之间连接的权重就会增加——不加强导致错误输出的连接?

Q4:每个输出神经元的决策边界是线性的是什么意思?

Q10:为何要取iris.data[:,(2,3)]
Q11:啥地方需要用上xx.astype(np.int)

 X是一个类似于(2,3)的元组,来装载着花瓣的长度和宽度

 

 Q3:这个公式到底是啥?

 https://mp.weixin.qq.com/s/My-G5-tw4iOU8jwaOsBPUA
调整感知器的超参数

Q5:他在干什么?
Q6:SGD分类器是啥?penalty是啥
Q7:感知器不输出类概率,而是基于硬阈值进行预测?
Q8:XOR异或分类问题,线性分类问题
Q9:MLP通过堆叠多个感知器LTU来解决异或XOR问题

 预留个档期:几个分类器之间的对比、联系以及区别,验证其优劣性能的方式

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值