技术小白的AI产品经理成长之路第一步(吴恩达《深度学习工程师》学习笔记2.1二分分类)希望可以给同为技术小白的同学一点深参考

<背景>

        作为一个在市场营销岗位多年的技术小白,突然某天想到自己曾经的产品梦正在伤感之余(话说曾经因为舍不得在营销岗多年的经验,因此在三年前想要转行却一直未能成功,直到现在移动端红利期已过,这类岗位红利期也过,转型越来越难...),发现AI人工智能产业正在朝气蓬勃,且AI产品经理的行业壁垒较高,忆起本人的本科专业电子信息工程科班,大学时期拿着联想手机直叹用户体验太差,幻想着未来的手机就靠我了,然后,然后后来就一直使用苹果手机...

       于是这次下定决心,相信那些年错过的那些,都是为了今日准备,人生所有的累积都是有用的,这次哪怕是从基层做起也在所不辞...看了大量的文章和帖子后,决定从吴恩达的课程开始学习。

       这个课程有两个网站可以学习:一个是https://www.coursera.org/,另一个是因为这个课程在中国的火热程度,网易云课堂引进的版本,相对来说,后者播放较为流畅,但是前者有更为完善的学习计划,可以在完成课程至于答题、测验,不断回顾自己的学习进度,大家可以自行选择。


      课程具体的内容和优势我这里就不再赘述,相信想要学习的朋友一定会自己去了解...至于为什么会想到写学习笔记(我擦上学的时候都没有写过这玩意),主要是因为看了第一节课就发现大学学的东西真的只一点没留全都丢回给老师,不但线性代数、求导那些完全一脸懵逼,就连数学上一些基本的概念和表达符号都不记得,就终于明白为什么很多想从互联网产品经理岗位转型的同学说在从学高数了。于是乎,想要记录下自己在学习整个课程中,一点点去补回的知识点以及某些系统的课程,一方面便于自己不断回顾,让知识体系更加系统,另一方面也希望和我一样的小白却想要转岗的同学能够简单做为自己的参考,一起努力冲破这道壁垒(因为一直固执的认为,万丈高楼平地起,基础知识一定要牢靠。)


       课程第一部分是《神经网络和深度学习》课程结构如下截图,


        因为第一周是基础概念课,我觉得也较容易理解,因此觉得不需要查什么资料,另外在这里夸夸吴恩达的课,老外的教学方式真的是有一种小白都能听明白的感觉,讲的很细



       然后,第二周,前三节课还没看完,我就彻底歇菜,因此,从这开始,需要有大量基础知识的补充,才能继续课程了


—————————————————分割线——————————————————

<正文开始>

下面,我列出目前正在学习的几个系统的课程给到各位,不确定是不是都一定特别有用(后期学完会反馈到博客),但是心里想着补回基础课总是没坏处,所以就硬着头皮加油!(当然,我会以下基础课和深度学习课程同时进行,毕竟基础课在学生时代都学过,有些东西只要足够理解课程就会跳着学习)

概率论与数理统计:http://mooc.study.163.com/course/NJU-1000031001?tid=2001381056#/info(网易云课堂)

线性代数:http://study.163.com/course/courseMain.htm?courseId=1003649037(网易云课堂)

单变量微积分:http://study.163.com/course/courseMain.htm?courseId=1003649073(网易云课堂)


———————————————————————————分割线—————————————————————————————


另外,课程中的内容即使小白如我也较为容易理解,但是在还没能重新学完微积分、线代的情况下,本文主要针对第2.1课神经网络基础的2.1课做下基础概念的补充


一、什么是二分分类问题?

也许对于数学基础特别好,或者理解记忆力特别好的同学没什么疑问,但是在这里,我还是很想特别深究一下,为什么关于一幅图是否是一只猫咪这个例子要叫做二分分类问题?不知道是问题太过简单,还是别的原因,网上竟然很难找到合理解释,后来终于找到以前学过的一个概念,二分法,感谢度娘(如下链接),非常好回答了我这个问题:

http://www.baike.com/wiki/%E4%BA%8C%E5%88%86%E6%B3%95



二、特征向量:

       ①https://baike.baidu.com/item/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F/8663983?fr=aladdin(百度百科,有点像课本,理解较困难)

       ②http://blog.csdn.net/dongtinghong/article/details/14216139(特征值和特征向量的几何和物理意义,可以说讲的很清楚的一篇关于特征向量和特征值含义以及应用的文章)

       ③http://blog.csdn.net/u010182633/article/details/45921929?locationNum=1&fps=1(这篇博客简单的介绍了这个数学概念,并且展示如何手动获取二维方形矩阵的特征值分解)


备注:作为基础课第一课,吴恩达大篇幅讲述后续将使用的记号(notation)。为了便于回顾,特此备注如下(此处参考了网路其他同学的记录,因为懒得自己记,哈哈哈!)

y - output label

x - input feature vector

x = \begin{bmatrix} 255\\ 231\\ \vdots\\ 255\\ 134\\ \vdots \end{bmatrix}

n = n_x = 12288 - dimension of the input features x ,用n_x来表示特征向量x的维度,为了简洁可以简写为n

x \rightarrow y

(x, y), x\in\mathbb{R}^{n_x}, y\in\left \{ 0, 1\right \} - a single training example,其中x是n维特征向量,y是0或者1的标签

m = m_{train} - number of training examples,训练集的长度为m,有时候写为m_train

m_{test} - number of test examples,测试集的长度

\{(x^{(1)}, y^{(1)}), (x^{(2)}, y^{(2)}), \cdots,(x^{(m)}, y^{(m)})\} - entire training sets,整个训练集或者测试集


X=\begin{bmatrix} \vdots & \vdots & & \vdots\\ x^{(1)} & x^{(2)} & \cdots & x^{(m)}\\ \vdots & \vdots & & \vdots \end{bmatrix}, X\in\mathbb{R}^{n_x\times m} - entire input feature matrix,

大写的X,表示训练集或者测试集的所有特征。它是一个nxm的矩阵,列是x^(i)这些样本特征,行是不同样本相同特征。


X.shape = (n_x, m) - finding the shape of input matrix

Y=\begin{bmatrix} y^{(1)}, y^{(2)}, \cdots, y^{(m)} \end{bmatrix}, Y\in\mathbb{R}^{1\times m} - output label matrix,输出标签矩阵

Y.shape = (1, m) - finding the shape of output matrix


      


  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值