图像处理基础
端木亽
这个作者很懒,什么都没留下…
展开
-
I/O模型前期知识
以此图中I\O阻塞模型为例图中操作体指进程/线程/协程。用户运行程序要求访问文件,即创建操作体调用内核中开放的数据接口访问硬件空间的文件,通过文件名找到文件的inode号码,通过inode号码得到inode信息,通过inode信息找到文件所在的区域(即文件描述符),确定文件位置。将文件从硬件空间拷贝至内核空间的缓冲区,然后cpu将数据从内核空间缓冲区拷贝到用户的地址空间。用户即可对文件进行读...原创 2020-03-09 01:06:25 · 203 阅读 · 0 评论 -
pytorch复现loss遇到的问题
复现交叉熵首先定义了函数对照公式实现了交叉熵的功能def CrossEntropy(inputs, targets): return np.sum(np.nan_to_num(-targets*(np.log(inputs)))运用到项目代码中出现了detach()问题,且因为类型非variable 无法更新梯度,无法backward由于我的项目代码使用的torch框架...原创 2019-08-19 21:07:35 · 805 阅读 · 0 评论 -
热力图heatmap
这个方法又称Class Activation Map(CAM类激活映射),由于这是基于分类问题的一种可视化技术,并且只有将全连接层改为全局平均池化才能较好的保存图像的空间信息,这对于训练是不利的。2017年提出了Grad-CAM,可以在不改变网络结构的情况下进行初始化。CAMCAM论文CAM的原理大致如上图所示,生成步骤如下:step1: 输入一张图进入CNN(可以是任何网络)中,最后...原创 2019-04-06 15:45:47 · 6875 阅读 · 2 评论 -
注意力机制
Attention机制是什么?说到底attention实际上是一个加权求和,用于计算每个与attention关注的对象(其实是一个向量)的相关程度。step1 设计一个打分函数fif ifi,针对每个hihihi,计算出一个scoresisisi 。而sisisi打分的依据,就是hihihi与attention所关注的对象(其实就是一个向量)的相关程度,越相关,所得sisisi越大。step...原创 2019-04-05 18:01:08 · 1708 阅读 · 0 评论 -
WGAN, WGAN-GP, BE-GAN论文笔记
GAN网络的重点在于均衡生成器与判别器,若判别器太强,loss没有再下降,生成器学习不到东西,生成图像的质量便不会再有提升,反之也是。WGAN待更新。。。。。WGAN中相较于此前GAN的改进主要在于以下四点:判别器最后一层去掉sigmoid生成器和判别器的loss不取log每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c不要用基于动量的优化算法(包括momentum...原创 2019-03-01 22:11:35 · 6922 阅读 · 5 评论 -
GoogleNet系列笔记
GoogleNet系列笔记包括:Inception v1Inception v2Inception v3Inception v4Inception resnet v1Inception resnet v2原创 2018-12-18 19:58:40 · 570 阅读 · 0 评论 -
PIL,plt显示tensor类型的图像
该方法针对显示Dataloader读取的图像。PIL 与plt中对应操作不同,但原理是一样的,我试过用下方代码Image的方法在plt上show失败了,原因暂且不知。 # 方法1:Image.show() # transforms.ToPILImage()中有一句 # npimg = np.transpose(pic.numpy(), (1, 2, 0)) # 因此pic只能是3-D T...转载 2018-12-26 20:26:06 · 10430 阅读 · 1 评论 -
GAN网络走过的坑
复现代码时出现ERROR如下:Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.后在所有的loss中添加retain_graph=Tr...原创 2018-12-02 17:24:29 · 838 阅读 · 0 评论 -
VGG笔记
VGG的网络参数 VGG与AlexNet对比VGG基于AlexNet发展而来,特点在于使用的卷积核大小均为3*3,并将网络深度加深。网络不同之处----相同之处-AlexNet多种大小的卷积核深度为83层3*3最大池化层,stride=2,重叠池化参数量60M-激活函数ReLu,softmax分类VGG卷积核多为3 * 3 ,C引入...原创 2018-10-25 16:00:11 · 4523 阅读 · 0 评论 -
AlexNet笔记
AlexNet的一些参数:卷积层:5层全连接层:3层深度:8层参数个数:60M神经元个数:650k分类数目:1000类由于当时的显卡容量问题,AlexNet 的60M个参数无法全部放在一张显卡上操作,所以采用了两张显卡分开操作的形式,其中在C3,R1,R2,R3层上出现交互,所谓的交互就是通道的合并,是一种串接操作。AlexNet的结构图:AlexNet 网络参数计算按照公式...原创 2018-10-18 15:56:19 · 1127 阅读 · 3 评论 -
Python ,利用cv2批量缩放图像
先将图像文件名称读取保存为csv文件,以下为读取文件夹下后缀为.py的文件名称的代码#print(root) #当前目录路径 #print(dirs) #当前路径下所有子目录 #print(files) #当前路径下所有非目录子文件 import osimport csvL=[] file_dir ='.'i=0with open('predict.csv','w...原创 2018-04-15 22:35:29 · 1447 阅读 · 0 评论