深度学习笔记
文章平均质量分 63
K同学啊
“365天深度学习训练” 报名中,报名微信:mtyjkh_
展开
-
归一化与标准化
免费辅导、免费咨询)原创 2022-07-29 13:35:07 · 1246 阅读 · 0 评论 -
你应该知道的,十二大CNN算法
大家好,我是K同学啊!今天和大家分享一下自年来,涌现出来的那些优秀的图像识别算法模型。⭐️ 简介模型是Yann LeCun教授于1998年在论文《Gradient-based learning applied to document recognition》中提出。它是第一个成功应用于手写数字识别问题并产生实际商业(邮政行业)价值的卷积神经网络。被誉为是卷积神经网络的“Hello Word”,它是最简单的架构之一。有 2 个卷积层和 3 个全连接层,有大约 60,000 个参数。..............原创 2022-06-13 09:29:40 · 4877 阅读 · 7 评论 -
深度学习100例 - 常见错误 及 处理办法
文章目录1.module ‘tensorflow._api.v2.data‘ has no attribute ‘AUTOTUNE1.module ‘tensorflow._api.v2.data‘ has no attribute ‘AUTOTUNE解决办法:将AUTOTUNE = tf.data.AUTOTUNE更换为AUTOTUNE = tf.data.experimental.AUTOTUNE原创 2021-06-22 16:07:04 · 832 阅读 · 0 评论 -
深度学习,究竟该如何学?
大家好,我是K同学啊。最近,不少同学私信我“K,我是一个小白,我该怎么入门深度学习”“可以帮我看看这个问题吗”“在吗?在吗?这个是怎么回事啊”“这个报错不应该啊,我是copy你的代码的,怎么会出问题呢”“模型过拟合了,怎么办,求解”“能出一期新手教程嘛,我还是个小白”深度学习真的很难吗?不就是一个黑盒吗?你把数据丢进去,然后它帮你解析告诉你想要的结果老实讲,还真的挺难,这个黑盒玩不转啊,老是出问题那如果我告诉你,这东西可以搞钱呢还可以是笔巨款,一天把一个月是生活费搞到手怎么样.原创 2021-07-07 10:54:43 · 2217 阅读 · 15 评论 -
「多图」图解10大CNN架构
大家好,我是K同学啊!你是否一直在关注不同的卷积神经网络 (CNN)?近年来,我们见证了无数CNN的诞生。这些网络已经变得如此之深,以至于很难将整个模型可视化。我们不再跟踪它们,而是将它们视为黑盒模型。这篇文章是 10 种常见CNN 架构的可视化。这些插图提供了整个模型的更紧凑的视图,而不必为了查看 softmax 层而向下滚动几次。除了这些图像,我还附上了一些关于它们如何随着时间“进化”的笔记——从 5 到 50 个卷积层,从普通卷积层到模块,从 2-3 个塔到 32 个塔,从 7⨉7 到 5 ⨉5—原创 2021-08-17 12:30:39 · 4769 阅读 · 1 评论 -
新学期的一些安排 | 以及一些小建议
大家好,我是 K同学啊!不知不觉中,新的一学期又开始了,是不是还有点意犹未尽呢抱歉,开学了!Ta们都已经开始“卷”了!今天和大家分享一下我的新学期计划(立flag)主要还是围绕《深度学习100例》与《小白入门深度学习》这两个专栏,将学习过程中的笔记整理形成博客分享给大家。同时也会试着探索一些新领域,和大家一起看看其他地方的风景。今天有粉私信和我说到迷茫,希望给出一些建议。被问到这个其实自己也是有一点懵的。但是,仔细想想身边不少人都是这个状态。如何破局呢,我认为既然迷茫,那就应该先弄清楚自己原创 2021-08-29 16:54:03 · 196 阅读 · 0 评论 -
『图解』深度可分离卷积
深度可分离卷积其实是一种可分解卷积操作(factorized convolutions)。其可以分解为两个更小的操作:depthwise convolution 和 pointwise convolution。(1)标准卷积下面先学习标准的卷积操作:输入一个12123的一个输入特征图,经过 553的卷积核得到一个881的输出特征图。如果我们此时有256个卷积核,我们将会得到一个88256的输出特征图。以上就是标准卷积做的活,那么深度卷积和逐点卷积呢?(2)深度卷积与标准卷积网络不一样的是.原创 2021-09-01 17:58:25 · 904 阅读 · 0 评论 -
训练网络loss出现Nan的原因总结记录
1. 学习率过大2. 数据发生了损坏原创 2021-09-05 10:55:37 · 812 阅读 · 0 评论