自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 第6周学习笔记:Vision Transformer & Swin Transformer学习

该模型将Transformer结构直接应用到图像上,即将一张图像分割成多个patches,这些patches看作是NLP的tokens (words),然后对每个patches做一系列linear embedding操作之后作为Transformer的input。

2022-08-19 11:55:38 553 1

原创 第5周学习笔记:ShuffleNet & EfficientNet & 迁移学习

ShuffleNet 是旷视科技在 2017 年提出的模型,论文《ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices》。ShuffleNet 和 MobileNets 都采用了分组卷积的思想降低计算量,但是和 MobileNets 不同,ShuffleNet 通过 Channel Shuffle 操作打乱分组,从而获得其他分组的信息。...

2022-08-11 01:16:28 380

原创 MobileNetV1, V2, V3学习笔记

MobileNet网络是由google团队在2017年提出的,专注于移动端或者嵌入式设备中的轻量级CNN网络。相比传统卷积神经网络,在准确率小幅降低的前提下大大减少模型参数与运算量。(相比VGG16准确率减少了0.9%,但模型参数只有VGG的1/32)。...

2022-08-03 15:02:41 338

原创 学习笔记-第三周

同深度的ResNet网络结构配置,表中的残差结构给出了主分支上卷积核的大小与卷积核个数,表中残差块×N表示将该残差结构重复N次。

2022-07-27 16:06:33 548

原创 深度学习与pytorch基础-第二周学习笔记

结构基本上是softmaxlayers+=[nn.AvgPool2d(kernel_size=1,stride=1)]returnnn.Sequential(*layers)#网络放到GPU上net=VGG().to(device)criterion=nn.CrossEntropyLoss()optimizer=optim.Adam(net.parameters(),lr=0.001)

2022-07-20 15:42:00 452

原创 第一周-深度学习与pytorch基础

人工智能:使一部机器像人一样进行感知、认识、决策、执行的人工程序或系统。机器学习:计算机系统能够利用经验提高自身性能(最常用定义)。深度学习:不同于传统机器学习,应用了深度神经网络。M_P神经元:激活函数:神经元继续传递信息、产生新连接的概率(超过阈值被激活,但不一定传递)。激活函数举例:神经网络每一层的作用:在神经元总数相当的情况下,增加网络深度可以比增加宽度带来更强的网络表示能力:产生更多的线性区域。深度和宽度对函数复杂度的贡献是不同的,深度的贡献是指数增长的,而宽度的贡献是线性

2022-07-12 10:31:35 228 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除