深度学习
King的王国
AI干货分享
展开
-
YOLO系列大全(v1-v7)持续更新
YOLO原创 2022-11-11 15:40:07 · 259 阅读 · 0 评论 -
小目标检测
小目标检测原创 2022-09-30 14:25:52 · 766 阅读 · 0 评论 -
label smoothing 标签平滑
标签平滑原创 2022-09-29 15:56:10 · 106 阅读 · 0 评论 -
训练集、验证集、测试集
深度学习原创 2022-09-27 19:06:02 · 109 阅读 · 0 评论 -
公式识别项目汇总
项目汇总原创 2022-09-27 16:24:33 · 138 阅读 · 0 评论 -
模型汇总---分类、检测、分割
轻量级网络--MobileNet论文解读_DFan的NoteBook-CSDN博客_mobilenet论文轻量级模型:MobileNet V2_小麦草的博客-CSDN博客_mobilenetv2目标检测目标检测网络CenterNet详解(四) - silence_cho - 博客园分割FCN UNet图像语义分割入门+FCN/U-Net网络解析 - 知乎ParseNet【图像分割模型】全局特征与局部特征的交响曲—ParseNet - 知乎OCRNet【语义原创 2022-02-14 16:47:20 · 1635 阅读 · 0 评论 -
未解决疑惑?
1. 偏差 方差Resnet到底在解决一个什么问题呢? - 知乎原创 2022-02-14 16:24:52 · 151 阅读 · 0 评论 -
GAN系列
1、GAN2、CGAN3、DCGAN4、Pix2Pix5、CycleGAN参考链接:通俗理解GAN(一):把GAN给你讲得明明白白 - 知乎GAN学习指南:从原理入门到制作生成Demo - 知乎GAN论文逐段精读【论文精读】_哔哩哔哩_bilibiliWGAN的来龙去脉 - 知乎既能生成图像又能进行分类的ACGAN - 知乎...原创 2021-12-20 13:50:27 · 190 阅读 · 0 评论 -
深度学习基础
为什么要使用膨胀卷积:潜在问题:1、gridding effect 在感受野区域的采样值不连续改进:对比膨胀卷积(Dilated convolution)详解_哔哩哔哩_bilibili原创 2021-12-12 10:16:11 · 255 阅读 · 0 评论 -
损失函数汇总
语义分割之dice loss深度分析(梯度可视化) - 知乎原创 2021-11-22 15:52:25 · 473 阅读 · 0 评论 -
pytorch多gpu训练
Pytorch使用分布式训练,单机多卡(示例代码)_136.la原创 2021-11-16 16:28:08 · 740 阅读 · 0 评论 -
评价指标-----ROC AUC
小白都能理解的ROC曲线与AUC值_bitcarmanlee的博客-CSDN博客AUC,ROC我看到的最透彻的讲解_u013385925的专栏-CSDN博客_auc roc原创 2021-11-14 10:57:30 · 355 阅读 · 0 评论 -
yolo系列 优缺点以及源码解析
yolo v1 v2 v3 v4简单来说(大白话)都有什么不同。特点是什么呢? - 知乎原创 2021-11-05 17:52:51 · 2885 阅读 · 0 评论 -
network in network
【论文解读+代码实战】CNN深度卷积神经网络-Network in Network - 知乎CNN架构优化之一:Network in Network - 知乎原创 2021-11-04 16:43:28 · 506 阅读 · 0 评论 -
卷积神经网络发展历程
CNN模型发展史:从LeNet,AlexNet,GoogleNet,VGG到ResNet,SENet,Xception,MobileNet,ShuffleNet_山中有石为玉-CSDN博客原创 2021-11-04 15:01:03 · 1904 阅读 · 0 评论 -
transformer理解
1、RCNN2、Fast RCNN3、Faster RCNN4、原创 2021-11-03 20:47:44 · 50 阅读 · 0 评论 -
深度学习基础-----图像分类篇
1、Lenet经典CNN模型LeNet解读 - 知乎2、AlexNet【动手学计算机视觉】第十六讲:卷积神经网络之AlexNet - 知乎Pytorch手撕经典网络之AlexNet - 知乎3、VGG一文读懂VGG网络 - 知乎原创 2021-10-28 15:22:32 · 280 阅读 · 1 评论 -
深度学习基础-----LSTM GRU详解
https://towardsdatascience.com/illustrated-guide-to-lstms-and-gru-s-a-step-by-step-explanation-44e9eb85bf21http://colah.github.io/posts/2015-08-Understanding-LSTMs/原创 2021-10-25 15:04:45 · 199 阅读 · 0 评论 -
深度学习基础-----BN层反向传播过程
Batch Normalization BP梯度推导 - 知乎原创 2021-10-25 11:21:42 · 470 阅读 · 0 评论 -
深度学习基础-----卷积层的反向传递过程
Task 4 CNN back-propagation 反向传播算法 - 简书原创 2021-10-23 20:11:14 · 284 阅读 · 0 评论 -
深度学习基础-----ReLu激活函数的反向传递过程
ReLU函数详解及反向传播中的梯度求导_BrightLamp的博客-CSDN博客_relu求导原创 2021-10-23 19:36:33 · 1781 阅读 · 0 评论 -
深度学习基础-----池化层的反向传播过程
深度学习笔记(3)——CNN中一些特殊环节的反向传播_迷川浩浩的博客-CSDN博客原创 2021-10-23 16:07:37 · 125 阅读 · 0 评论 -
深度学习基础-----全连接层的反向传播过程
【Python实现卷积神经网络】:全连接层的正向传播与反向传播+python实现代码_Jack_Kuo的博客-CSDN博客_全连接层反向传播原创 2021-10-23 15:56:02 · 566 阅读 · 0 评论 -
基础知识-----统计和概率的区别
1、统计是在已知数据的前提下,进行模型的归纳与推断。从深度学习角度理解:统计实际上就是模型的训练阶段,已知训练数据和对应标签,对训练数据进行学习,最小化损失函数,最后得到模型。2、概率是在已知模型的基础上,对其他样本数据进行预测,预测这个模型产生的结果(方差、均值等)。从深度学习角度理解:概率实际上就是模型的推理阶段,已知训练好的模型,对未知样本进行预测,得到最终的预测结果。总结:统计和概率研究的问题恰好相反...原创 2021-10-12 10:27:39 · 6804 阅读 · 0 评论 -
resnet
Resnet到底在解决一个什么问题呢? - 知乎网络退化、过拟合和梯度消散 - 码我疯狂的码 - 博客园原创 2021-09-30 15:17:54 · 59 阅读 · 0 评论 -
深度学习基础-----激活函数(持续更新中)
1、Sigmoid2、Tanh3、ReLu4、Leaky ReLu5、ELu6、Swish7、Gelu8、Maxout9、10、原创 2021-09-29 16:53:32 · 82 阅读 · 0 评论 -
深度学习基础-----梯度消失、梯度爆炸以及解决方案
https://ziyubiti.github.io/2016/11/06/gradvanish/https://zhuanlan.zhihu.com/p/25631496https://blog.csdn.net/junjun150013652/article/details/81274958https://blog.csdn.net/qq_25737169/article/details/78847691原创 2021-07-20 09:33:52 · 190 阅读 · 0 评论 -
python实现NMS(非极大值抑制)算法
NMS原创 2021-07-19 20:44:55 · 948 阅读 · 1 评论 -
深度学习基础----ConvTranspose2d(反卷积操作)
1、函数:torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0,原创 2021-07-17 10:51:17 · 1124 阅读 · 0 评论 -
通俗理解swin transformer
https://zhuanlan.zhihu.com/p/362672090简单易懂原创 2021-07-14 15:23:30 · 2364 阅读 · 0 评论 -
损失函数篇-----focal loss
https://zhuanlan.zhihu.com/p/103623160原创 2021-07-11 16:07:31 · 784 阅读 · 0 评论 -
深度学习基础-----交叉熵、极大似然估计
https://blog.csdn.net/red_stone1/article/details/80735068https://blog.csdn.net/u011508640/article/details/72815981原创 2021-06-25 16:48:10 · 149 阅读 · 0 评论 -
深度学习基础-----BN层
https://zhuanlan.zhihu.com/p/34879333原创 2021-06-25 16:46:31 · 280 阅读 · 0 评论 -
怎样通俗易懂地解释反卷积?
https://www.zhihu.com/question/48279880/answer/1843351117转载 2021-06-21 15:33:36 · 96 阅读 · 0 评论 -
Beam Search python实现
from math import logimport numpy as npdef beam_search_decoder(data, k): sequences = [[list(), 1.0]] for row in data: all_candidates = list() for i in range(len(sequences)): seq, score = sequences[i] for原创 2021-06-16 19:42:43 · 709 阅读 · 0 评论 -
深度学习基础知识-----多通道卷积计算
以彩色RGB三通道图像为例:1、一个卷积核(一个Filter)的计算输入层与卷积核,需要有相同的channel数;输入层的每个channel 与卷积核对应的channel 进行卷积计算,然后每个 channel 的卷积结果按位相加得到最终的特征图。2、多卷积核(多个Filter)的计算(下图以2个Filter为例)当有多个卷积核时,可以学习到多种不同的特征,对应产生包含多个 channel 的 Feature Map。卷积层设置2个 filter,输出Feature Map就有两个 ch原创 2021-04-20 18:11:46 · 1767 阅读 · 0 评论 -
解决Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR问题
原因:显存不足(一般情况下,如果不加以限制,很多深度学习框架的代码在运行的时候会申请整个显存空间(即便它不需要这么多的资源,但是它申请了之后就不允许其他的程序使用),所以在这种状态下运行代码,就会出现显存不够用的问题(因为还有其他的程序或操作需要显存资源))解决方法:在运行脚本中添加下述代码from tensorflow.compat.v1 import ConfigProtofrom tensorflow.compat.v1 import InteractiveSessionconfig = C原创 2021-03-22 17:42:30 · 786 阅读 · 0 评论 -
tensorflow框架----ckpt转pb模型
1、ckpt转pbimport tensorflow as tfdef freeze_graph(input_checkpoint, output_graph): # 指定输出的节点名称,该节点名称必须是原模型中存在的节点(重要!!!!!!!!!,如何找到该节点名称,见下文) output_node_names = ['attn_cell_1/transpose_1'] saver = tf.train.import_meta_graph(input_checkpoint + '原创 2021-03-16 11:11:40 · 217 阅读 · 0 评论 -
极简Python学习教程-----OSError: symbolic link privilege not held
PyCharm或者jupyter notebook 出现OSError: symbolic link privilege not held问题时以管理员方式重新打开prompt即可----------------over---------------------原创 2020-07-02 09:06:57 · 1076 阅读 · 0 评论 -
极简Python学习教程-----TensorBoard可视化(使用TensorBoard查看远程服务器的训练情况)
原理:建立ssh隧道,实现远程端口到本地端口的转发,具体来说就是将远程服务器的(10240-10249)端口转发到本地的16006端口,在本地对16006端口的访问即是对远程(10240~10249)端口的访问。步骤:1、在登录远程服务器的时候使用命令(ip地址:127.0.0.1指代本地主机):ssh -L 16006:127.0.0.1:10240 [email protected]、训练完模型后使用:tensorboard --logdir=./logs --port=1024原创 2020-06-19 13:43:03 · 355 阅读 · 0 评论