深度学习相关知识点简记 (有点乱),2024年最新vue前端面试题2024

params计算params=(本层卷积核长*宽*上层卷积核厚)*本层卷积核厚   池化层没有params

3. GoogLeNet:22层 去除了全连接层(占据了网络的大部分参数),使用了全局均值池化,大大减小了参数量

1*1卷积层的作用:用于减少维度,还用于修正线性激活(relu)

(1)采用了模块化的结构(inception结构),方便增添和修改

(2)网络最后采用了average pooling来替代全连接,可将准确率提升百分之0.6

(3)虽然移除了全连接,但依然使用了Dropout

(4)为了避免梯度消失,网络额外增加了2个辅助的softmax用于向前传导梯度(辅助分类器)

4. ResNet:152层 plain网络随着网络加深,错误率升高

深层网络到了一定深度,准确率趋近饱和,而且继续加深的话会降低准确率,这称为退化问题,为了解决退化问题,提出了残差学习,如下图所示为残差块,假设本来是要学习H(x),加了一条恒等映射之后我们要学习的就是F(x) = H(x) - x

5. DenseNet:核心思想是建立不同层之间的连接,充分利用功能,进一步减少梯度消失的问题,加深网络不是问题,训练效果非常好。DenseNet包含两部分,dense block和transition layers

dense block中的每一层之间直接连接,不同层之间的直接连接增加了每层输入的多样性和提高了效率

每两个相邻的dense block之间的卷积+池化层被称为transition layers,其作用是通过下采样来改变特征图的大小。

当参数量相同的情况下,DenseNet比ResNet拥有更小的错误率;当验证错误率相同的时候,DenseNet比ResNet拥有更少的参数。

对于 DenseNet 抗过拟合的原因有一个比较直观的解释:神经网络每一层提取的特征都相当于对输入数据的一个非线性变换,而随着深度的增加,变换的复杂度也逐渐增加(更多非线性函数的复合)。相比于一般神经网络的分类器直接依赖于网络最后一层(复杂度最高)的特征,DenseNet 利用特征复用(feature reuse)综合利用浅层复杂度低的特征,因而更容易得到一个光滑的具有更好泛化性能的决策函数。

6. CNN应用:

语义分割:1.滑动窗口:将每一个小窗口通过cnn分类,缺点是计算量非常大2.全卷积网络:利用全是卷积层的网络来训练,通过填充保持图片的大小不变,最后分类得到语义分割后的图像,C为类别数量,在深通道(如64,128,256)逐层做卷积操作,非常消耗内存和计算量3.先下采样再上采样:对一小部分卷积层做原清晰度处理,经过一系列下采样,卷积,不使用全连接 上采样(去池化):最邻近去池化:将值赋给附近领域。钉床(Bed of Nails)去池化:将值赋给左上角元素,其余填充零

最大去池化(Max Unpooling):与Maxpooling相对应,将原值赋给对应位置元素,其余填充零,在网络的后半部分用去池化将相应元素放在池化前的相应位置,保存空间的上的结构,(池化后在低清晰度保留的元素与填充后的小块组成高清晰度的图像,这样可以保证最大池化的元素依然是在相应的位置)优点:分割的意义就在于找到不同类别的边界,最大池化后在低清晰度会丢失空间信息,去池化后会还原空间信息,帮助预测

7. 目标检测RCNN:

R-CNN是用来识别一个图片中的若干张物体的方法,采用提取框,对每个框提取特征、图像分类、 非极大值抑制四个步骤进行目标检测

RCNN 算法原理:Selective Search 生成候选框,候选框区域缩放到统一大小,使用 CNN 对每个候选框提取特征,提取出特征后使用 SVM 进行分类,通过非极大值抑制输出结果

R-CNN 训练步骤:在数据集上训练CNN。R-CNN 论文中使用的 CNN 网络是AlexNet,数据集为ImageNet 。在目标检测的数据集上,对训练好的 CNN 做微调 。用 Selective Search 搜索候选区域,统一使用微调后的 CNN 对这些区域提取特征,并将提取到的特征存储起来。使用存储起来的特征,训练SVM 分类器。

三、生成对抗网络(GAN)及具体实例


自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数前端工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Web前端开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
img
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注前端)
img

react和vue的比较

相同
1)vitual dom
2)组件化
3)props,单一数据流

不同点
1)react是jsx和模板;(jsx可以进行更多的js逻辑和操作)
2)状态管理(react)
3)对象属性(vue)
4)vue:view——medol之间双向绑定
5)vue:组件之间的通信(props,callback,emit)

一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
img

,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
[外链图片转存中…(img-KRMXAWDn-1712783844998)]

  • 6
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值