![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习cv
用于学习
小宋加油啊
最开始的时候我们想当英雄,想变超人,想成为被光环围绕的很厉害的人,后来啊,后来只想做一个普通人,养一条狗,养一只猫,有一所小房子,和一个心爱的人。
展开
-
深度学习中epoch、batch、step、iteration等神经网络参数是什么意思?
在神经网络的训练过程中,训练数据往往是很多的,比如几万条甚至几十万条——如果我们一次性将这上万条的数据全部放入模型,对计算机性能、神经网络模型学习能力等的要求太高了;当然,在某些情况下,step和iteration可能会有细微的区别——有时候iteration是指完成一次前向传播和反向传播的过程,而step是指通过优化算法对模型参数进行一次更新的操作。通俗地说,在神经网络训练过程中,每次完成对一个batch数据的训练,就是完成了一个step。很多情况下,step和iteration表示的是同样的含义。原创 2023-09-04 16:42:18 · 2073 阅读 · 1 评论 -
在神经网络中为什么要用激活函数以及激活函数的种类
https://www.bilibili.com/video/BV1ep4y1b7Fe/?spm_id_from=333.337.search-card.all.click&vd_source=eb433c8780bdd700f49c6fc8e3bd0911原创 2023-05-07 11:12:35 · 49 阅读 · 0 评论 -
同时安装了多个Python版本,pip在指定Python版本下安装,以及pip安装库时指定版本号
pip install -t D:\python3.5(32bit)\Lib\site-packages -i https://pypi.douban.com/simple 你要下载的东西。比如:安装PyInstaller。转载 2023-05-02 18:47:13 · 529 阅读 · 0 评论 -
如何理解通道数in_channel和out_channels
对于第二层或者更多层的卷积,此时的 in_channels 就是上一层的 out_channels , out_channels 还是取决于过滤器数目。对于最初输入图片样本的通道数 in_channels 取决于图片的类型,如果是彩色的,即RGB类型,这时候通道数固定为3,如果是灰色的,通道数为1。卷积完成之后,输出的通道数 out_channels 取决于过滤器的数量。从这个方向理解,这里的 out_channels 设置的就是过滤器的数目。原创 2023-05-04 16:12:52 · 2067 阅读 · 0 评论 -
全连接层的作用
https://zhuanlan.zhihu.com/p/552186222这个知乎上把全连接层说的很形象。原创 2023-05-07 15:51:59 · 96 阅读 · 0 评论 -
python和PyTorch知识
我们使用 _” 来“忽略”一个或多个值(表示我们不需要这些值),然后将“t.shape”元组的第一个元素赋值给变量“b`”。可参考这篇文章https://www.jianshu.com/p/2ff9a6905abe。数是 Python 函数的两种参数类型。中这个用法是什么意思。原创 2023-04-20 17:56:37 · 250 阅读 · 0 评论 -
隐变量与隐空间的简单介绍
原创 2023-07-28 12:26:37 · 170 阅读 · 0 评论 -
这个pytorch讲的不错哦
https://www.bilibili.com/video/BV1hE411t7RN?p=15&vd_source=eb433c8780bdd700f49c6fc8e3bd0911原创 2023-05-23 11:42:35 · 83 阅读 · 0 评论 -
详解机器学习中的熵、条件熵、相对熵和交叉熵
这个是讲的不错的链接。原创 2023-07-27 14:46:32 · 86 阅读 · 0 评论 -
机器学习中常用的概率论知识
后验概率:是基于新的信息,修正原来的先验概率后所获得的更接近实际情况的概率估计。先验概率:是指根据以往经验和分析得到的概率。原创 2023-05-27 16:47:09 · 73 阅读 · 0 评论 -
深度学习正则化及损失函数
正则化可以看一下这个视频。原创 2023-07-31 09:42:11 · 189 阅读 · 0 评论 -
PyTorch BatchNorm2d详解
通常和卷积层,激活函数一起使用。原创 2023-07-28 16:19:14 · 478 阅读 · 0 评论 -
详解深度学习中的注意力机制(Attention)
当我们用深度 CNN 模型识别图像时,一般是通过卷积核去提取图像的局部信息,然而,每个局部信息对图像能否被正确识别的影响力是不同的,如何让模型知道图像中不同局部信息的重要性呢?答案就是注意力机制。1 为什么要引入 Attention 机制?原创 2023-08-29 15:36:30 · 412 阅读 · 0 评论 -
ResNet以及残差块
另外一个也稍微讲的不错。原创 2023-08-07 09:55:36 · 58 阅读 · 0 评论 -
在卷积神经网络中1x1卷积核有什么作用
2.feature map通道数上的降维。举个例子:假设输入的特征维度为100x100x128,卷积核大小为5x5(stride=1,padding=2),通道数为256,则经过卷积后输出的特征维度为100x100x256,卷积参数量为128x5x5x256=819200。1x1卷积核只有一个参数,当它作用在多通道的feature map上时,相当于不同通道上的一个线性组合,实际上就是加起来再乘以一个系数,但是这样输出的feature map就是多个通道的整合信息了,能够使网络提取的特征更加丰富。原创 2023-08-07 14:33:24 · 679 阅读 · 0 评论 -
SDE与ODE
然后在结合https://www.bilibili.com/video/BV1814y1n7Eh/?spm_id_from=333.788&vd_source=eb433c8780bdd700f49c6fc8e3bd0911这个B站的视频。看这篇文章不错https://spaces.ac.cn/archives/9209。原创 2023-08-08 09:05:14 · 171 阅读 · 0 评论 -
深入理解机器学习与极大似然之间的联系
与极大似然估计十分类似。粗糙点说,极大似然的概率密度函数就像是机器学习的算法,要用偏导求得的参数就相当于机器学习里的参数(不是超参数,虽然有些算法只有超参数,这是一个大概的理解。似然函数:事件A的发生含着有许多其它事件的发生。所以我就把这些其它事件发生的联合概率来作为事件A的概率,也就是似然函数。数据类型的不同(离散型和连续性)就有不同的似然函数。极大似然极大似然估计方法(Maximum Likelihood Estimate,MLE):那就是让这个似然函数的最大,原创 2023-08-04 16:36:12 · 702 阅读 · 0 评论 -
计算机视觉掩模区域与二值图像
在图像处理中,我们经常需要对图像中的某些特定区域进行操作,例如对某个区域进行滤波、变换、裁剪或者其他处理。为了实现这些操作,我们需要明确指定这些区域,这就是掩模区域的作用。掩模区域在图像处理中有广泛的应用,例如图像分割、特征提取、目标检测和识别等领域。它可以帮助我们集中关注特定的图像区域,并且可以实现对感兴趣区域的精确处理。除了二值图像,掩模区域也可以使用其他形式的表示,例如基于像素强度的阈值、图像边界等。,可以帮助我们实现对图像的精确处理和分析。它是图像处理中的重要工具,具有广泛的应用价值。原创 2023-08-16 14:10:53 · 898 阅读 · 0 评论 -
Skip Connection——提高深度神经网络性能的利器
可以参考一下这篇知乎所讲。原创 2023-08-28 16:47:59 · 1499 阅读 · 0 评论 -
自编码器的学习
先奉上视频。原创 2023-08-09 19:38:39 · 303 阅读 · 0 评论 -
深度学习——感受野以及与图像修复的问题
在CNN中,决定某一层输出结果中一个元素所对应的输入层的区域大小被称作感受野(receptive field),指的是神经网络中一个神经元可以感知到的区域,在CNN中,即 上某个元素的计算受输入图像上影响的区域,这个区域就是该特征图上的元素的感受野。原创 2023-08-29 13:29:41 · 454 阅读 · 0 评论 -
深度学习之反卷积
具体推理可以参考https://blog.csdn.net/zhsmkxy/article/details/107073350。原创 2023-08-29 15:01:02 · 131 阅读 · 0 评论 -
损失函数——感知损失
与传统的均方误差损失函数(Mean Square Error,MSE)相比,感知损失更注重图像的感知质量,更符合人眼对图像质量的感受。感知损失的计算方式通常是将输入图像和目标图像分别通过预训练的神经网络,得到它们在网络中的特征表示。文章来源地址https://www.yii666.com/blog/443431.html。其中,x 是输入图像,y 是目标图像,Fi(x) 和 Fi(y) 分别表示它们在预训练的神经网络中的第 i 层的特征表示,N 是特征层数。原创 2023-08-20 12:24:31 · 512 阅读 · 0 评论 -
终于整明白GAN了
b站讲的不错的大佬https://www.bilibili.com/video/BV1xm4y1X7KZ/?spm_id_from=333.337.search-card.all.click&vd_source=eb433c8780bdd700f49c6fc8e3bd0911原创 2023-08-09 16:18:11 · 64 阅读 · 0 评论 -
降噪自编码器(Denoising Autoencoder)
降噪自编码器的基本原理如下:降噪自编码器的目的是学习如何从受损的输入数据中恢复出干净的输出数据。原创 2023-08-19 22:37:30 · 1329 阅读 · 0 评论 -
cNN入门教程
关于卷积所谓卷积,其实就是一种滤波方式。这在信号处理、图像处理上经常用到。最简单的在图像里面,一副图像和一个给定图像或者模版的进行卷积,卷积就是对应位置数据相乘然后再相加,比如像前面神经元与神经元全连接在一起的,假设他们是图像,对于其中一个隐含层的节点计算来说,拿出来其实就是一种卷积计算,像下面这样:这是隐含层的全链接,那部分连接可能就不是I1 到I9,可能只是I1到I3之类的与W1~W3卷积。一个典型的部分连接其实可以等效为图像滤波一样,比如拉普拉斯滤波模版对图像滤波,像下面这样子:关于卷积层原创 2021-10-23 14:10:55 · 2372 阅读 · 0 评论 -
十分钟带你玩转人工智能——调用百度AI接口实现文字转语音
调用别人的接口,实现人工智能就是站在巨人的肩膀上打开百度AI,点这个控制台,(你要是没有注册 ,就注册一下,很简单的)点开这个语音技术创建一下应用好了以后,按照这个图的步骤,免费领取一下使用次数上面的工作好了以后,先上代码特别重要的一点是,导入包的时候,导入的baidu_aip而不是aipfrom aip import AipSpeechapp_id=""app_key=""s=""client=AipSpeech(app_id,app_key,s)#第一个参数的是你要转变的原创 2021-05-05 12:45:50 · 2185 阅读 · 3 评论 -
力推一个人工智能学习的网站
网站原创 2021-06-06 08:07:21 · 81 阅读 · 0 评论 -
最详细的导入face_recognition的教程
首先导入pip install cmake 想办法下载dlib-19.7.0-cp36-cp36m-win_amd64.whl(我用的3.6,根据自己情况)的版本对应的whl文件原创 2021-05-29 09:33:55 · 582 阅读 · 1 评论 -
我的第一个python实现人脸识别项目
这时候要导入三个包你先什么都别做,看一下这个博客导入cv2的错误信息然后在看一下face_recognition安装教程原创 2021-05-29 07:36:44 · 136 阅读 · 0 评论