深度学习基本知识
文章平均质量分 73
AI街潜水的八角
985硕,多年大厂经验,资深算法工程师,热爱技术
展开
-
perceptual loss(感知loss)介绍
perceptual loss(感知loss)介绍原创 2023-05-29 10:18:18 · 519 阅读 · 0 评论 -
CBAM(基于卷积块的注意机制): Convolutional Block Attention Module
CBAM(基于卷积块的注意机制): Convolutional Block Attention Module原创 2023-05-29 10:03:36 · 545 阅读 · 0 评论 -
常用损失函数(L1、L2、SSIM和MS-SSIM)对比简介
常用损失函数(L1、L2、SSIM和MS-SSIM)对比简介原创 2023-05-29 10:01:18 · 1699 阅读 · 0 评论 -
深度学习中的五种归一化(BN、LN、IN、GN和SN)方法简介
深度学习中的五种归一化(BN、LN、IN、GN和SN)方法简介原创 2023-05-29 10:00:12 · 591 阅读 · 0 评论 -
深度学习中的常用八种卷积运算简介
深度学习中的常用八种卷积运算简介原创 2023-05-29 09:56:46 · 499 阅读 · 0 评论 -
mean-pooling(平均池化),max-pooling(最大池化)、Stochastic-pooling(随机池化)和global average pooling(全局平均池化)的区别简介
mean-pooling(平均池化),max-pooling(最大池化)、Stochastic-pooling(随机池化)和global average pooling(全局平均池化)的区别简介原创 2023-05-26 11:27:23 · 12511 阅读 · 0 评论 -
上采样(UnSampling)、上池化(UnPooling)、反卷积(Deconvolution)与PixelShuffle(像素重组)之间的区别简介
上采样(UnSampling)、上池化(UnPooling)、反卷积(Deconvolution)与PixelShuffle(像素重组)之间的区别简介原创 2023-05-26 11:21:54 · 679 阅读 · 0 评论 -
反卷积(Deconvolution)与棋盘效应(Checkerboard Artifacts)
反卷积(Deconvolution)与棋盘效应(Checkerboard Artifacts)原创 2023-05-26 11:15:01 · 214 阅读 · 0 评论 -
深度学习中,偏置(bias)在什么情况下可以要,可以不要?
深度学习中,偏置(bias)在什么情况下可以要,可以不要?原创 2023-05-26 11:07:24 · 831 阅读 · 0 评论 -
tensorflow与pytorch的移植转换函数对比表
tensorflow与pytorch的移植转换函数对比表原创 2023-05-26 11:00:22 · 105 阅读 · 0 评论 -
激活函数总结(Sigmoid、Tanh、Relu、LeakyRelu、pRelu、Elu、softplus)
激活函数总结(Sigmoid、Tanh、Relu、LeakyRelu、pRelu、Elu、softplus)原创 2023-05-26 10:47:54 · 1570 阅读 · 0 评论