杂谈四-再见2017

其实本该2018年1月1号写的,但是今天来写好像也不为失时机,因为明天就回家了也是很开心的。纵观2017有遗憾、有欢乐、也有完成任务时的成就,希望下个学期我会变得更好一点。就像前几天看的《无问西东》中一样,当我们提前知道我们的人生,我们是否还有勇气来面对?我想回答很简单,试试吧。电影中几个主人公在面临选择时,是追随自己的内心?还是像大众一样,随波逐流?很多事并不会等你准备好了来做,很多事都需要你先做着,先面对着,或许很痛苦、很煎熬,说不定最后你就能完成,或许你完不成,但是你只有做过,才能边学习边前进着。我还有很多坏毛病,比如拖延症、爱打游戏,希望自己下个学习能变好一点,能敢于面对自己完成起来有困难的事。
还记得老师问自己池化层作用时,自己确实回答不上来,曾经看书上是为了减少矩阵的长和宽,从而减少最后全连接层的参数,但是最近看到有研究说池化层对模型作用不大。说实话自己对于深度学习只停留在表面使用该模型跑一些图片识别的例子,其中为什么能有这样的效果,我不知道。神经网络号称是典型的黑箱算法,不但很难明白原理,而且当预测结果不正确时,很难对模型的行为进行有效分析,无法找到根本原因并进行修正。这或许也是现在AI所面临的一个难题吧。
另外,我还感觉到深度学习需要大量的标注数据,动不动就是几百万张图片,这些收集起来需要花费大量的力气,虽然国外有许多已经标注好的数据集,但是深度学习以后并不会局限于图像识别,语音识别,想进一步突破下去,这也是一个挑战。
另外参数设置,这些也就是我们工作的重点之一了,这么多参数到底是哪类参数出问题了呢?
最后,反过来想想我们真的能通过数据描述宇宙中所有的规则或者定理吗?曾经在《智能时代》中看到,数据能帮助我们描述这个不定、变化的社会中无法用公式描述的问题,好像牛顿三大定律、量子化学等一些定律仅仅通过一些简单公式就能描述。而现在如果我们只对这些机理产生的数据做建模,就会使得问题变得复杂了起来,或许我们能拟合出来,但是我们所花的努力真的比机理的研究少吗?或者说效果会怎么样呢?这些还需要AI者们去研究。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值