2021年了, 机器/深度学习还有哪些坑比较能好挖?

链接:https://www.zhihu.com/question/440538267

编辑:深度学习与计算机视觉

声明:仅做学术分享,侵删

2021年了, 机器学习还有哪些坑比较能好挖?比如GCN, meta learning, ... 不为其他,只求毕业, 望各位大佬指点指点。感激不尽。

作者:金雪锋

https://www.zhihu.com/question/440538267/answer/1699917805

从做框架的角度看到几个方向,供参考:

1、AI与科学计算结合

AI技术,特别是深度学习/强化学习/图神经网络等方法,基于实验或者计算产生的数据对所求解的问题进行可计算建模,从而得到复杂问题的有效解决方式,这对当今科学的研究范式已经产生了巨大影响。经过近几年的发展,通过AI建模/AI求解/框架加速等手段,已经渗透到科学的各个领域,例如数学,化学,物理等,这里我列举几个AI+科学计算解决传统问题的实例,抛砖引玉,欢迎大家讨论。相信未来几年,AI与科学计算交叉研究与应用,会保持很高的热度。

2、通过Transformer堆叠的成大模型的思想,从NLP推广到CV、多模

这个就不用多讲了(GPT-3、swith transformer、DALLE等),不过同时带来的挑战是这些超大模型怎么部署到边和端。

3、AI进入千行百业,AI的可信可能是未来研究的热点

这里包括数据和模型的隐私、模型的鲁棒性、模型的防窃取、数据防投毒、模型的可解释性等等。

作者:倪高我饿了
https://www.zhihu.com/question/440538267/answer/1696824731

看了几个回答,都在说因果推断、知识图谱,这其实都是一个东西,都是上世纪专家系统的舶来品,是基于符号人工智能的产物。不能说不行,但是目前进步不大,而且太偏理论,不好进行研究;比如,你说你研究CV或者NLP都知道你在研究什么,但是你要说你在研究神经网络,是不是面太宽了,研究也可以,但是难度很大,不建议为了毕业这么研究。

此外,有人说NLP已经研究不出来什么了。NLP作为人工智能的明珠,是一个图灵完备的问题,如果NLP能彻底解决,强人工智能就能顺势诞生。目前阶段,我感觉距离NLP发掘完毕还很远,远到根本看不到车尾。

结合其他答案,可以研究基于知识图谱、实体关系的NLP。前几年的自然语言技术(忘了简称了)比赛也提到了这个方向,貌似还不错。有基于结构化信息的,有基于知识图谱和,有基于开放域的。


作者:匿名用户 https://www.zhihu.com/question/440538267/answer/1700426044

AI+医学图像。

这是比较适合刷文,但不一定适合业界。

一个很明显的苦难是,很多医学图片的差别几乎都是微小的。但这个最缺的是数据,如果有公司弄个超大数据集,可能下一个五年又是CV的了。

PS:高赞的因果推断已经做了几十年的东西了,不要轻易入坑啊。

☆ END ☆

如果看到这里,说明你喜欢这篇文章,请转发、点赞。微信搜索「uncle_pn」,欢迎添加小编微信「 mthler」,每日朋友圈更新一篇高质量博文。

扫描二维码添加小编↓

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值