2018年9月30日在老师的推荐下看了2018年人工智能峰会,没看完,今天看的是周志华教授的部分
主要思想是 机器学习,或者说深度学习 成功的背后,有什么支持着,这些支柱有什么能改进的地方。
(黑体字为会议内容总结,红字为观后感,或者说一些学习结果)
虽然一直在接触深度学习,实际上对于其在工业方面的应用并不是特别清楚,今天特意去查了一下,发现深度学习真是撑起了今天应用程序的一片蓝天,自动识别,自动处理,提取信息进行分类,可以说和智能化息息相关。
周志华教授主要提及了三个方面:深度模型,监督信息以及人物环境
关于深度模型:当前主要面临 深度学习==深度神经网络的局面,这二十多年来取得了很大的进展,但面临临界状态,神经网络模型过于复杂!于是南大的研究室最近提出了 深度森林的想法,抛开神经网络模型和BP算法,而是基于非可微函数建立模型,据教授说,在处理离散数据方面效率可能接近 神经网络。
关于监督信息:周志华教授提及,目前机器学习依靠着强监督信息建立体系,但是随着算法复杂性的增加,需要的数据越来越多,对应的监督信息也会成为问题。所以说弱化监督信息的比重是很有意义的。
大数据时代,样本不成问题。(错) 这些数据是需要人工处理,标注的。
数据标注现在已经发展成一种职业,具体是 从各种渠道获取数据,并且进行分类,标记整理。
例如,现有一个图像识别模型,利用机器学习的相关算法来实现,那麽就需要数据去训练模型,还有交叉验证,还有测试。
也就是说,数据集按需求分成了 训练集,交叉验证集以及测试集。而在训练集中,可能有一张飞机的照片,我们就需要进行数据标注,告诉计算机,这是一个飞机,以后看到类似的东西就将其识别成飞机吧。这就是数据标注的意义。担任相关工作的人员可以发展成数据库管理员,因为对数据的走向脉络相当清晰。
而绕了这么一个圈子,监督信息是什么呢?
经过这两天查阅的,并不完全的信息,我觉得监督信息就是对数据进行的标注。周志华教授的演讲中也说,Alpha Zero 虽然不用人类棋局的信息,而是机器博弈,但是它获得了极强的堪称上帝的监督信息,即判断棋局的输赢,我觉得这就是一种数据标注。
关于任务环境:主要探讨的还是模型的稳定性。在数据变化的时候,我们能否保证robust性呢?
并且值得注意的是,很多时候我们探讨的强化学习技术(是指 deep reinforcement learning吗?),与环境进行交互,改变数据的来源,实际上并没有改变实质,没有挑战规则,试问当整个规则都变化了,我们的模型能真正稳定下来吗?这个问题值得深入探讨。
受益匪浅!!