2018 AI World 观后感——周志华教授part

2018年9月30日在老师的推荐下看了2018年人工智能峰会,没看完,今天看的是周志华教授的部分

主要思想是 机器学习,或者说深度学习 成功的背后,有什么支持着,这些支柱有什么能改进的地方。

(黑体字为会议内容总结,红字为观后感,或者说一些学习结果)

  虽然一直在接触深度学习,实际上对于其在工业方面的应用并不是特别清楚,今天特意去查了一下,发现深度学习真是撑起了今天应用程序的一片蓝天,自动识别,自动处理,提取信息进行分类,可以说和智能化息息相关。

  周志华教授主要提及了三个方面:深度模型,监督信息以及人物环境

关于深度模型:当前主要面临 深度学习==深度神经网络的局面,这二十多年来取得了很大的进展,但面临临界状态,神经网络模型过于复杂!于是南大的研究室最近提出了 深度森林的想法,抛开神经网络模型和BP算法,而是基于非可微函数建立模型,据教授说,在处理离散数据方面效率可能接近 神经网络。

关于监督信息:周志华教授提及,目前机器学习依靠着强监督信息建立体系,但是随着算法复杂性的增加,需要的数据越来越多,对应的监督信息也会成为问题。所以说弱化监督信息的比重是很有意义的。

  大数据时代,样本不成问题。(错) 这些数据是需要人工处理,标注的。

数据标注现在已经发展成一种职业,具体是 从各种渠道获取数据,并且进行分类,标记整理。

例如,现有一个图像识别模型,利用机器学习的相关算法来实现,那麽就需要数据去训练模型,还有交叉验证,还有测试。

也就是说,数据集按需求分成了 训练集,交叉验证集以及测试集。而在训练集中,可能有一张飞机的照片,我们就需要进行数据标注,告诉计算机,这是一个飞机,以后看到类似的东西就将其识别成飞机吧。这就是数据标注的意义。担任相关工作的人员可以发展成数据库管理员,因为对数据的走向脉络相当清晰。

而绕了这么一个圈子,监督信息是什么呢?

经过这两天查阅的,并不完全的信息,我觉得监督信息就是对数据进行的标注。周志华教授的演讲中也说,Alpha Zero 虽然不用人类棋局的信息,而是机器博弈,但是它获得了极强的堪称上帝的监督信息,即判断棋局的输赢,我觉得这就是一种数据标注。

 

关于任务环境:主要探讨的还是模型的稳定性。在数据变化的时候,我们能否保证robust性呢?

并且值得注意的是,很多时候我们探讨的强化学习技术(是指 deep reinforcement learning吗?),与环境进行交互,改变数据的来源,实际上并没有改变实质,没有挑战规则,试问当整个规则都变化了,我们的模型能真正稳定下来吗?这个问题值得深入探讨。

 

受益匪浅!!

 

 

 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值