自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 Ubuntu 18.04下Java环境安装与配置

官网:https://www.oracle.com/technetwork/java/index.html下载页:https://www.oracle.com/technetwork/java/javase/downloads/index.html!在这里插入图片描述点击JDK DownLoad点击Linux x64 Compressed Archive 的 xxx.ta.gz文件下载建立安装文件夹$ cd /usr$ sudo mkdir java赋予目录最高权限,避免一些奇怪的问题$

2021-06-18 11:33:32 542

转载 Ubuntu 18.04下Java环境安装与配置

参考文章:https://www.cnblogs.com/lfri/p/10437266.htmlhttps://blog.csdn.net/qq_22999067/article/details/93089198

2021-06-18 11:18:54 140

转载 如何理解贝叶斯公式?

如何理解贝叶斯公式?参考:https://www.zhihu.com/question/51448623

2021-03-20 23:18:41 160

转载 ResNet详解与分析

ResNet详解与分析转载:https://www.cnblogs.com/shine-lee/p/12363488.html

2021-03-14 23:34:21 153

转载 Ubuntu 下安装配置 VScode 的 C/C++ 开发环境

Ubuntu下安装配置 VScode 的 C/C++ 开发环境转载:https://www.jb51.net/article/186868.htm

2021-02-08 08:28:52 372

转载 吃透空洞卷积(Dilated Convolutions)

吃透空洞卷积(Dilated Convolutions)转载:https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247524546&idx=2&sn=0a2f069e07f2e9e964a9d53a5a807033&chksm=ec1c8d3bdb6b042da38b1c96b2a489d388dc9e6626713ba8e1b6e911fdd82223cc6ef923737f&mpshare=1&

2020-12-05 16:42:08 207

原创 GAN对抗生成网络

1.为什么GAN难以训练?GAN网络包含有:生成模型和判别模型两种。我们之前一直有在用判别模型,(分类、回归)都是在判别模型。而对于生成模型:往往比判别模型更加困难。就像是识别莫奈的绘画要比模仿莫奈的绘画更容易。个人理解生成模型是在创造数据,判别模型只是在处理数据。对于生成模型:GAN采用标准或均匀分布来提供噪声z,并利用深度网络生成模型G来创建图像x(x=G(z))。用一张图来表现就是如下:(类似于无中生有,但并不是完全的无中生有)在GAN中,我们增加了判别器(Discriminator)来

2020-11-19 10:15:36 285

转载 maxpooling主要有两大作用

maxpooling主要有两大作用invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力(1) translation invariance:这里举一个直观的例子(数字识别),假设有一个16x16的图片,里面有个数字1,我们需要识别出来,这个数字1可能写的偏左一点(图1),这个数字1可能偏右一点(图2),图1到图2相当于向右平移了一个单位,但是

2020-10-30 12:00:41 738

原创 Batch Normalization

Batch Normalization 一.为什么需要BN? ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200919122143879.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3RpbWV0aW1l...

2020-09-19 12:41:51 105

转载 1*1卷积核

11卷积核一、1x1卷积的作用?1改变数据维度(存储方式)因为11卷积不改变图形的大小,当对同一个特征图用数值不同的11的卷积核时,会得到到不同的输出,当同时使用多个卷积核时就可以改变模型的维度,比如,一张500 * 500且厚度100 的图片在20个卷积核上做11的卷积,那么结果的大小为50050020。2.增加模型的深度减少参数量3增加非线性通常情况下,在构建网络模型时会使用激活函数,当使用1*1的卷积核来加深了网络模型,使用的激活函数的次数就会变多,激活函数大多是非线性的(有利于分离

2020-09-17 21:25:23 340 1

转载 Pytorch中的Batch Normalization操作

Pytorch中的Batch Normalization操作Batch Normalization这里只探究其具体运算过程,我们假设在网络中间经过某些卷积操作之后的输出的feature map的尺寸为4×3×2×2,4为batch的大小,3为channel的数目,2×2为feature map的长宽整个BN层的运算过程如下图上图中,batch size一共是4, 对于每一个batch的feature map的size是3×2×2,对于所有batch中的同一个channel的元素进行求均值与方差,比如上

2020-09-17 19:15:08 609

原创 1x1卷积的作用

1x1卷积的作用转载:https://www.yuque.com/docs/share/886daf31-34df-4118-8747-0dec9b13dbf6?#

2020-09-17 09:58:54 112

原创 标准化和归一化的区别

标准化和归一化的区别

2020-09-16 11:49:41 220

转载 Batch normalization理解

Batch normalization理解转载:https://www.jianshu.com/p/86530a0a3935

2020-09-15 23:32:56 72

原创 Batchnormal部分理解

2020-09-14 16:27:03 152

转载 PYTORCH搭建MOBILENETV2

PYTORCH搭建MOBILENETV2转载:https://www.freesion.com/article/596734855/

2020-09-12 21:10:48 252

转载 https://www.zhihu.com/question/20994432

数学期望和均值的区别,直观的理解:转载知乎:Jean同学的回答

2020-09-11 19:24:15 989

转载 卷积核与特征提取

卷积核与特征提取转载:https://www.cnblogs.com/zongfa/p/9130167.html

2020-09-03 18:09:49 1208

转载 代码实现卷积操作

代码实现卷积操作转载:https://blog.csdn.net/qq_41398808/article/details/97925070

2020-09-03 18:08:51 436

转载 卷积神经网络之卷积计算、作用与思想

卷积神经网络之卷积计算、作用与思想转载:https://www.cnblogs.com/shine-lee/p/9932226.html

2020-09-03 18:06:52 165

原创 GD(梯度下降)

GD(梯度下降)一.梯度下降分类1.批量梯度下降(Batch Gradient Descent)——BGD2.随机梯度下降(Stochastic Gradient Descent)——SGD3.小批量梯度下降(Mini-Batch Gradient Descent)——MBGD下面以线性回归算法来对三种不同梯度下降法进行理解:假设线性回归函数(前向传播):对应的损失函数(均方误差):二.批量梯度下降(BGD)思想:每一次的参数更新都用到了所有的训练样本数据;1.损失函数对求偏导,求梯

2020-08-29 00:03:59 681

转载 批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解

批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解转载:https://www.cnblogs.com/lliuye/p/9451903.html

2020-08-27 17:22:53 96

转载 范数的理解

范数的理解转载知乎:https://zhuanlan.zhihu.com/p/26884695

2020-08-25 11:29:01 256

转载 线性可分性、线性不可分性的定性理解

线性可分性、线性不可分性的定性理解1.线性可分是指能使用线性组合组成的超平面将两类集合分开,线性不可分则没有能将两类集合分开的超平面2.线性可分的特点:低维转高维,还能保持原来的线性可分性的特点;但是高维转低维就不能保持原来的线性可分性3.线性不可分的特点:只要是线性变化到高维或者是低维,都不能是线性可分;但是经过一次非线性变化+仿射变换后或者多次就能实现线性可分。(这里可以运用于神经网络)转载:https://www.cnblogs.com/MyUniverse/p/10147187.html

2020-08-20 17:03:20 1723

转载 机器学习识别图片的基本原理

机器学习识别图片的基本原理转载:https://www.jianshu.com/p/6b82a0cd992d

2020-08-19 22:49:14 1466

转载 图神经网络越深,表现就一定越好吗?

图神经网络越深,表现就一定越好吗?转载:https://mbd.baidu.com/newspage/data/landingsuper?context=%7B%22nid%22%3A%22news_9365138010860825390%22%7D&n_type=0&p_from=1

2020-08-19 22:47:55 280

转载 PyTorch中网络里面的inplace=True

torch.nn.LeakyReLU(inplace=True)转载:https://www.jianshu.com/p/8385aa74e2de

2020-08-19 17:34:47 736

转载 三种梯度下降

三种梯度下降法转载:https://www.cnblogs.com/bonelee/p/8392370.html

2020-08-16 00:06:16 95

转载 梯度下降法的三种形式BGD、SGD以及MBGD

梯度下降法的三种形式BGD、SGD以及MBGD转载:https://www.cnblogs.com/wyuzl/p/7645602.html

2020-08-15 18:41:49 131

转载 逻辑回归

逻辑回归转载知乎:https://zhuanlan.zhihu.com/p/74874291

2020-08-14 11:56:26 100

转载 支持向量机(svm)数学公式解释

支持向量机(svm)数学公式解释转载:https://www.jianshu.com/p/cd5c511fd5d2

2020-08-13 16:59:13 605

转载 支持向量机(svm)

@支持向量机(SVM)转载:https://www.jianshu.com/p/399ddcac2178欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将会带来全新的写作体验;

2020-08-13 15:44:23 91

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除