斯坦福cs231n(一)

**********手动分割线**********

今天开始,真是的学习斯坦福的cs231n的课程,会将一些学习的感触在博客上记录下来。

**************************

在斯坦福大学的课程主页上,有关于课程的详细信息(http://cs231n.stanford.edu/)

课程需要一些Prerequisites,在上面也列举出了

(1)对Python和C/C++要会熟练使用(。。。。。)

(2)要了解一定的数学基础,如线性代数和微积分,了解矩阵。向量的一些基本操作过程

(3)要有一定的关于概率的知识基础,至少要知道高斯分布,期望。方差等

(4)了解关于机器学习的一些知识基础。在课程里,我们将自定义损失函数,使用梯度下降进行优化


classification/detection

Feifei Li在课程的第一节讲了关于神经网络的发展历史。这种历史可以追溯到5亿4千万年前,生物大爆炸,开始出现眼睛起(这个历史真的够久远的了),关于神经网络历史,最前沿的是获得诺贝尔医学奖的关于猫的实验:对于物体的认知是分级的,一开始只是对边缘产生脉冲,然后层级

2010年Feifei Li 利用ImageNet数据集推出ILSVRC竞赛,在2012年之前,获胜的模型一般是特征+支持向量机结构,没有端到端的风格特色。

从2012年开始,获胜的模型都是卷积神经网络建筑的模型结构,到2015年获胜的模型是微软亚洲研究院孙剑和何凯明大神组提出的ResNet,有152层。

Feifei Li在这堂课的最后提出了一些在神经网络的现代发展史上值得我们铭记的人物:(愿意尊重历史,卷积神经网络不是一夜之间产生的)

Kunihiko Fukushima,日本的一位计算机学家,提出了Neocognitron模型,是卷积神经网络架构的一个开端

Yann LeCun(Facebook人工智能实验室的负责人),在20世纪90年代就提出了神经网络的概念,1998年提出了LeNet神经网络,负责手写数字识别

Geoff Hinton(Yann LeCun的导师)设计的AlexNet获得了ImageNet的冠军, AlexNet就是在LeNet上面做了一些细小的改动 (Sigmoid变成了ReLU,卷积核大小的变化)

还有一个Feifei Li没有提到,但是被认为是与上面两人并成为人工智能三巨头的Yoshua Bengio。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值