算法工程师之路——Deeplearning.ai神经网络与深度学习篇Week1

写在前面——一点碎碎念

天将降大任于斯人也,必先苦其心志,劳其筋骨,饿其体肤,空乏其身,行拂乱其所为。——《孟子•告子下》

      尘埃落定,在好好学(wan)习(shua)三年之后,我成功侥幸收获了UESTC MSE的Offer,心里万分激动,想着Bright Future应该是在向着自己招手了,hhhh。兴奋劲儿已过,回归现实,需要好好做下未来的学习生活规划。其实在未来选择无非两种:继续攻读PhD或是工作。无论是哪一种,如果不牺牲大量的脑细胞,怕是不咋现实。早做安排,早做规划,从来都是一件需要认真对待的事情。于是乎,我大量浏览了全国最大程序员社交平台(知乎),得出了一点自己小小的见解:

  1. BAT、网易、华为等大厂算法岗位供大于求,几乎是30:1、40:1甚至100:1的中奖率,恐怖如斯。
  2. DeepLearning是当今人工智能最火领域(似乎有点老生常谈,前几年已是如此)。
  3. 没有收到Offer或是被拒掉不一定是你不行,也可能是你不适合,这意味着比起全面了解、熟悉各项AI技术,公司更希望你能够在特定领域中解决实际业务遇到的问题,即对口性
  4. 工程能力科研能力同等重要。很好理解,这个世界需要工程师与科学家共同协作,缺一不可。

      随便翻看大厂对算法工程师AI工程师大数据工程师的要求,你会发现压力甚大,比如这样的:
腾讯校招
      额,挺恐怖的对吧?又比如,这样的:
阿里校招
       程序员高薪那不是说说就得到的,Pay attention to your hair,哈哈哈。我觉得在我的本科四年里,其实一直并没有受到过很严格的工程训练,也并没有太多品尝过熬夜看paper的滋味(好吧,除了数学建模!)。我非常希望自己能够早日找到适合自己研究的那一个领域和点,持续努力并体会到掌控知识的快乐,向大佬们看齐。还是那句话:

                                       纵有疾风起,人生不言弃!


Deeplearning.ai神经网络与深度学习(Week1)

      嗯哼,既然说了这么多,那就马上开始行动。在开始博客撰写之前我便学习过Andrew Ng大牛的Machine Learning课程,但我今天不打算整理这节课的资料,我将在后期的博客中进行整理。当前的目标是同样出自吴恩达老师之手的神经网络与深度学习课程,在此多谢网易云课堂与吴大佬的合作使我们能够如此早的看到有准确中文翻译的课程视频,要不然只能去死磕Coursera上有点尬的中文翻译了,手动狗头。废话不多说,进入正题:
      在第一周的学习中,主要是对神经网络以及深度学习的概念、兴起的原因、应用进行了大致的阐述。在解释神经网络时提到到了较为经典的房价预测模型

      网上有许多详细讲解神经网络概念的文章,我就不再赘述。图中的含义即房价与房子的size、bedroom、zip code、wealth有关,我们需要找到其中的某种规律,建立一种函数映射关系,对搜集到的以上四种指标的数据进行处理输出对应的房价,有许多方法可以达到这种效果,如多元线性回归。在这里我们使用神经网络算法,将四种指标的数据作为Input layer(输入层),然后传入Hidden layer(隐藏层)中的Hidden unit(隐藏单元)进行函数处理,最终得到结果即预测的房价,从Output layer(输出层)输出。
       整个神经网络的处理过程较容易理解,关键在于神经网络架构的设计、内置函数的选取以及输入指标的规定,针对于不同场景的业务,我们可以构建出完全不同的神经网络结构进行问题处理。CNN、RNN等深度学习算法,其基础便是最基本的神经网络架构,因此,搞懂、领悟神经网络是学好深度学习的第一步。
      在搞懂神经网络的原理之后,我们再来谈谈为什么深度学习会在近些年突然爆发,得到大量的关注?原因很简单,Scale drives deep learning progress,即规模推动深度学习。此处的规模不仅仅是指数据量规模,同时也指问题规模。针对一个简单问题,我们也许只需要特别少量的数据、特别简单的神经网络模型,便可以在1分钟内获得我们想要的结果,但会不会觉得如果我们只把神经网络应用在类似于1+1=2这样的问题上,实属大材小用呢?对于复杂问题的处理,我们就不能仅仅指望于一层或两层神经网络模型可以帮我们很好的完成任务,我们需要改进神经网络模型才能处理海量数据,并在较短时间内得到更加精确的结果,这便是深度学习的意义。

      对于人工智能领域,甚至其他领域的学习,我们都可以采用上图的方式:当你有了一个不错的idea,你需要使用手边的编程工具进行code,产生输出,并放在实际运行环境下进行experiment,它会给出反馈,以便于你去调整自己的idea,循环往复。在今后的学习中,小伙伴们不妨多运用这样的思路,会对自己有个不错的提升。
      Supervise Learning(监督学习)是神经网络应用较为广泛的一类问题,主要分为Regression(回归)和Classification(分类)两种,上文提到的多元线性回归便是Regression的一种情况。回归与分类有共同点但又不尽相同,在此引用李航老师《统计学习方法》中的描述:

输入变量与输出变量均为连续变量的预测问题是回归问题;
输出变量为有限个离散变量的预测问题成为分类问题;
输入变量与输出变量均为变量序列的预测问题成为标注问题。

       所以,区别回归与分类,最直观的方式便是看输出结果连续与否。在后续的学习中,我们也将会看到许多经典的回归、分类问题,并使用神经网络模型进行解决,这里便不再赘述。
      还有一点需要特别强调的是,在信息化时代的今天,我们所接触的数据不一定是简单的整数、浮点数数据、表格数据等,即结构化数据,也可能遇到图像、语音、文本等较为特别的数据,即非结构化数据,在语音识别、图像处理等领域,我们会广泛应用到非结构化数据,这是需要我们关注的。


      第一周的学习虽然内容不多,但也起到了一定的引导作用,下一周将重点学习神经网络的基础知识部分。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值