ML的神经网络(Hu Qinghua)
1. 什么是智能?
这个问题关于智能的本质。即智能是如何产生的(从感知到措施,形成一个闭环)
从内容方面看,包括基础理论->关键技术->支撑应用(是一个过程)
2. “十年为一个周期”
AlexNet-ZENet-VGG-VD-ResNet-DenseNet-SE-Net-GoogleNet-Inception
3. 发展趋势:
从好性能的网络如何应用-轻量化
4. 关于1*1卷积的理解有很多,以下是关于卷积的处理
5*5换成两个3*3
深度可分离卷积:1*1拆成1*3和3*1
逆残差网络(先升维再降维)
ML的底层逻辑(Meng Deyu)
1.学习的要素:
客体多样性:人的智慧/大数据
主体共性:人
2. 学习的3个方式:
演绎性(以不变应万变)+归纳法(身临其境)+超越性(灵感闪现)
3. 机器学习的内容:
把人的智慧写成数学公式(目的是把握客体,操控客体)
4.基础是统计学习理论——为控制真实风险,用经验风险和学习机来描述上界。(经验风险和学习机呈负相关)
由此得出:在训练效果好的基础上,让学习机(函数的集合/刻画主题的容量)尽可能的小。
5.从机器学习的角度看问题?(分离成主体客体来看,看它改变的是谁)
6.支持向量机强调“最大化无”,而以前都是强调“最小化有”。
7.可解释性的界定:举例用数学理论说明先平移再变换等价于先变换再平移。即平衡等变性。
感受:大佬们都知道知识背后的故事。前者是梳理前人的知识,形成自己的逻辑。后者则是在此基础上形成自己对机器学习的方法论。
小结:听讲座听的是观点,形成自己的知识体系。