小白的ai学习之路
文章平均质量分 74
AndSonder
这个作者很懒,什么都没留下…
展开
-
史上最全深度学习入门教程:超全深度学习笔记本
超全深度学习笔记本我和小伙伴们一起写了一个超全的深度学习笔记本,你可以通过以下链接访问他:https://ml.akasaki.space/如果感觉写的还不错的话,记得给这个仓库一个star ❤原创 2021-05-18 15:59:13 · 2571 阅读 · 0 评论 -
【论文阅读】Conditional Convolutions for InstanceSegmentation
文章目录0x01 概要0x02 Mask-RCNN的缺点0x03 为什么FCNs在实例分割上的效果不好0x04 主要贡献0x05 CondInst的实例分割1x01 网络总体结构1x02 网络输出和训练标签0x01 概要Mask R-CNN等性能最好的实例分割方法依赖于ROI操作(通常是ROIPool或roalign)来获得最终的实例掩码。相比之下,我们建议从一个新的角度来解决站姿分割问题。我们不使用实例级roi作为固定权重网络的输入,而是使用基于实例的动态感知网络。CondInst有两个优点:1)通过原创 2020-10-30 07:57:11 · 921 阅读 · 1 评论 -
空间金字塔池化网络SPP-Net
文章目录:文章目录0x01概要介绍0x02 SPP-Net0x03 网络结构1x01 卷积层和特征图1x02 空间金字塔池层0x04 训练网络0x05 Spp-Net在图像分类上的应用0x06 Spp-Net在目标检测上的应用0x01概要介绍现有的深卷积神经网络(CNNs)需要一个固定大小(如224×224)的输入图像。这种要求是“人为的”,可能会降低对任意大小/比例的图像或子图像的识别精度。在这项工作中,我们为网络配备了另一种池策略“空间金字塔池”,以消除上述要求。这种新的网络结构称为SPP网,它可原创 2020-10-29 20:56:44 · 1732 阅读 · 0 评论 -
BugKu Web篇通关wp
BugKu Web篇通关wp文章目录BugKu Web篇通关wp0x01 WEB20x02 计算器0x03 web基础$_GET0x04 web基础$_POST0x04 矛盾0x05 WEB30x01 WEB2没啥好说的直接F12打开控制台,找到Flag 过!0x02 计算器需要计算64+65的结果,F12打开控制台,发现修改为10,就可以输入了,得到flag过!0x03 web基础$_GET简单的get传参,直接通过url传参即可0x04 web基础$_POST类似get的操原创 2020-09-08 19:27:00 · 1082 阅读 · 0 评论 -
【白帽子学习笔记13】DVWA 反射型XSS(跨站点脚本攻击)
【白帽子学习笔记13】DVWA CSRF【反射性XSS(跨站点脚本攻击)】文章目录【白帽子学习笔记13】DVWA CSRF【反射性XSS(跨站点脚本攻击)】XSS1、什么是XSS?2、XSS类型3、漏洞形成的原因反射型XSS1、原理图获取Cookie重定向2、安全等级:LOW源码:尝试XSS注入XSS1、什么是XSS?XSS,跨站脚本攻击(Cross Site Scripting),为了不和层叠样式表(Cascading Style Sheets,CSS)的缩写混淆,故将跨站脚本攻击缩写为XSS。恶原创 2020-06-13 16:38:42 · 609 阅读 · 0 评论 -
如何优雅的提醒你训练完成
如何优雅的提醒你训练完成在训练的模型的时候经常在云服务器进行训练,在训练的时候因为不知道什么时候运行结束所以时不时还要回来看一看,那么如何方便的提醒你训练完成了吗?发邮件不就完事了我用smtplib封装了一个Reminder类,可以方便的提醒你训练时候完成,你可以自由的选择发送的时间,话不多说上代码吧import smtplibfrom email.mime.text import MIMETextfrom email.header import Headerclass Reminder:原创 2020-05-26 14:13:02 · 606 阅读 · 3 评论 -
Pytorch学习笔记【8】---经典MNIST
Pytorch学习笔记【8】—经典MNISTPytorch笔记目录:点击进入文章目录Pytorch学习笔记【8】---经典MNIST1. 网络结构2. 代码3. API分析torch.utils.data.DataLoader()torch.nn.init.kaiming_normal_()optimizer = optim.SGD([w1,b1,w2,b2,w3,b3],lr = learning_rate)criteon = nn.CrossEntropyLoss()虽然已经不知道写了多少次MNI原创 2020-05-16 22:32:30 · 1015 阅读 · 0 评论 -
Deformable Convolutional Networks 可变形卷积网络解析
Deformable Convolutional Networks文章目录Deformable Convolutional Networks1. 什么是可变形卷积?2. 可形变卷积解决了什么问题?3. 可变形卷积的具体实现细节3.1 双线性插值3.2 可变形卷积 Deformable Convolution3.3 可变形的ROI Pooling1. 什么是可变形卷积?Deformable Convolutional Networks 中提出了一种可以变形的卷积核和池化核,也就是不使用原来的正方形卷积核原创 2020-05-14 17:28:49 · 2156 阅读 · 0 评论 -
Pytorch学习笔记【7】---统计属性
Pytorch学习笔记【7】—统计属性Pytorch笔记目录:点击进入文章目录1. norm2. min max mean prod3. argmax and argmin4. dim and keepdim5. topk6. kthvalue1. norma = torch.full([8],1)b = a.view(2,4)c = a.view(2,2,2)print(b)print(c)print(a.norm(1),b.norm(1),c.norm(1))print(a.nor原创 2020-05-13 23:35:09 · 697 阅读 · 0 评论 -
Pytorch学习笔记【6】---基本运算
Pytorch学习笔记【6】—基本运算Pytorch笔记目录:点击进入文章目录Pytorch学习笔记【6】---基本运算1. Add2. Sub3. mul and div4. matmul5. pow and sqrt6. Exp and log7. Approximation8. round9. clamp1. Addtensor相加有两种方法效果基本一样# Adda = torch.rand(3,4)b = torch.rand(4)print(a+b)# or the result原创 2020-05-12 23:15:45 · 890 阅读 · 0 评论 -
Pytorch学习笔记【5】---tensor的拼接和拆分
Pytorch学习笔记【5】—tensor的拼接和拆分# cata = torch.rand(4,32,8)b = torch.rand(5,32,8)torch.cat([a,b],dim=0).shapetorch.Size([9, 32, 8])a1 =torch.rand(4,3,32,32)a2 = torch.rand(5,3,32,32)print(torch.cat([a1,a2],dim=0).shape)a2 = torch.rand(4,1,32,32)prin原创 2020-05-11 22:03:38 · 1178 阅读 · 0 评论 -
Pytorch学习笔记【4】---tensor维度变换
Pytorch【4】—tensor维度变换Pytorch笔记目录:点位进入文章目录Pytorch【4】---tensor维度变换1. view()unsqueeze()squeeze()expand().t()repeat()transpose()和permute()1. view()torch.view()的作用是改变tensor的维度,且改变前后的所有维度的相乘的结果相同a = torch.rand(4,1,28,28)print(a.shape)out:torch.Size([4, 1原创 2020-05-10 11:06:11 · 903 阅读 · 0 评论 -
Pytorch学习笔记【3】 --tensor切片
Pytorch学习笔记【3】 --tensor切片Pytorch笔记目录:点位进入文章目录Pytorch学习笔记【3】 --tensor切片1. indexing 索引2. 切片3. ...4. 通过掩码来处理flatten index1. indexing 索引类似于list的索引操作,tensor也可以使用类似的方法获取tensor中的数值# create a 4-dim tensora = torch.rand(4,3,28,28)print(a[0].shape)out:tor原创 2020-05-09 12:48:50 · 9505 阅读 · 0 评论 -
Numpy API整理大全
Numpy API整理大全文章目录Numpy API整理大全1. ndarray对象属性的基本操作数组的维度:元素的类型数组元素的个数:数组元素索引(下标)2. ndarray对象属性操作详解Numpy的内部基本数据类型3. ndarray数组对象的维度操作视图变维(数据共享): reshape() 与 ravel()复制变维(数据独立):flatten()就地变维:直接改变原数组对象的维度,不...原创 2020-05-07 21:28:52 · 1240 阅读 · 0 评论 -
Pytorch学习笔记【2】 --创建tensor的N种姿势
Pytorch学习笔记【2】 --创建tensor的N种姿势Pytorch笔记目录:点位进入文章目录Pytorch学习笔记【2】 --创建tensor的N种姿势从Numpy中导入从List类型转换rand—0-1之间的随机数torch.randint()torch.randn()torch.full()torch.normal()torch.arrange()torch.linspce()to...原创 2020-05-07 21:12:26 · 1003 阅读 · 0 评论 -
Pytorch笔记目录 --持续更新中
Pytorch笔记目录 --持续更新中为了更好的掌握Pytorch,准备用博客来记录一些Pytorch的知识点以及一些网络结构Pytorch版本:1.5Pytorch笔记【1】–导入Pytorch及判断torch基本的属性...原创 2020-05-06 23:31:46 · 461 阅读 · 0 评论 -
Pytorch笔记【1】--导入Pytorch及判断torch基本的属性
Pytorch笔记【1】–导入Pytorch及判断torch基本的属性在导入pytorch的时候时常需要判断一些基本的属性,最基本的有如下几种导入Pytorch:import torch判断torch的版本:torch.__version__判断cuda是否可以使用:torch.cuda.is_available()判断gpu的熟练:torch.cuda.device_count()...原创 2020-05-06 23:29:04 · 584 阅读 · 0 评论 -
HWGQ-net学习记录
HWGQ-net学习记录概要介绍HWGQ的全名是Half-wave Gaussian Quantization翻译过来就是半波高斯量子化,HWGW-net主要是针对激活值进行量化,以及使用近似的方法来拟合量化的损失(使得量化的损失和梯度匹配)。 也是模型量化一种方法这个网络结构会在前向传播的时候使用近似于ReLU函数的量化器,在反向传播使用合适的分段线性函数,来解决前向传播和反向传播的不匹配...原创 2020-05-02 15:23:17 · 833 阅读 · 0 评论 -
二值化神经网络——BNN
二值化神经网络——BNN前言: 最近在研究FBN的时候看到了BNN这个概念,论文中有很多的概念都和BNN相关,这里记录一下对于BNN的理解什么BNN?BNN全称Binarized Neural Networks中文译作二值化神经网络。其核心的思想就算把权重矩阵中权重值和各个激活函数的函数值同时二值化得到的神经网络。我们通过有两个二值化函数可以用来完成这个过程。第一个是Sign函数xb=...原创 2020-05-01 18:21:13 · 2147 阅读 · 1 评论 -
Panoptic Feature Pyramid Networks【详细解析相关两篇论文】
Panoptic Feature Pyramid NetworksPanoptic Segmentation在介绍Panoptic Feature Pyramid Networks之前首先介绍一下,Panoptic Segmentation(全景分割)。在论文中经常提出的一个概念就是联合。全景分割的本意就是将Instanse segmentation和semantic segmention进行...原创 2020-04-25 11:17:56 · 15979 阅读 · 0 评论 -
Colab常用操作合集
Colab常用操作合集随着最近接触到detectron2我也接触了Colab这个平台,比起国内的平台这个平台最大的优点就是支持多种算法的同时还免费。不过想要使用需要科学上网才能完成,不过我想在座的各位一定已经具备了这个能力,这篇博客是我对于Colab操作的一个总结Google DriveColab需要与Google Drive配套的使用,Google Drive就是一个类似于百度网盘的东西,...原创 2020-04-20 12:29:56 · 845 阅读 · 0 评论 -
深度神经网络模型压缩与加速研究综述
深度神经网络模型压缩与加速研究综述前言深度卷积神经网络(CNNs)近年来在许多视觉识别领域取得了巨大的成功。然而,现有的深度神经网络模型在计算上是昂贵的且内存是密集型的。这限制了他们在低配置的硬件上的运行。因此,在不显著降低模型性能的情况下,在深度网络中进行模型压缩和加速是一种自然的思路,在这篇博客里讲会大致的想你介绍这个领域内的技术,综述了近年来发展起来的压缩和加速CNNs模型的先进技术。...原创 2020-04-19 16:11:08 · 1978 阅读 · 0 评论 -
Detectron2篇之测试框架效果
Detectron2篇之测试与训练在上一篇博客中已经介绍了如何安装,不明白的小伙伴可以再去看看官方文档demo测试Detectron2中给出了一个demo让我们使用,下面结合官方文档我来说明一下要如何使用从这里可以看到详细的介绍调用demo进行图片处理下面先进行最简单的部分,调用demo进行图片处理这里提供一张图片进行测试(图片来源于网络):我们cd到demo文件夹之后打开c...原创 2020-04-16 23:17:26 · 614 阅读 · 0 评论 -
Detectorn2篇之介绍和安装
Detectorn2篇之介绍与安装Detectron2是Facebook人工智能研究的下一代软件系统,它实现了最先进的目标探测算法。它是对之前Detectron版本的重写,源自maskrcn -benchmark。第二代的更新它由PyTorch深度学习框架提供支持。第一代用的是caffe包括更多的功能,如全光分割,密集,Cascade R-CNN,旋转边界框等。全光分割(panopti...原创 2020-04-15 20:20:36 · 2381 阅读 · 0 评论 -
Tensorflow2常用操作合集
Tensorflow2常用操作合集文章目录Tensorflow2常用操作合集Data set loading and preprocessingData set trainingSet up the Network1.Fully connected layer2.Convolution layer3.2D convolution layer (e.g. spatial convolution...原创 2020-04-02 21:45:51 · 849 阅读 · 0 评论 -
TF2 GAN篇之GAN原理及推导【附WGAN代码和数据集】
TF2 GAN篇之GAN原理及推导TF2 GAN篇之GAN原理及推导GAN的起源在生成对抗网络(Generative Adversarial Network,简称GAN)发明之前,变分自编码器被认为是理论完备,实现简单,使用神经网络训练起来很稳定,生成的图片逼近度也较高,但是人眼还是可以很轻易地分辨出真实图片与机器生成的图片。2014 年,Université de Montréal ...原创 2020-03-29 12:31:11 · 2118 阅读 · 4 评论 -
TF2 VAE原理及代码实现
TF2 VAE原理及代码实现VAE(Variational Autoencoder)相关文章导航TF2 自编码器原理TF2 VAE原理及代码实现损失函数KL散度相对熵(relative entropy),又称为KL散度(Kullback - Leibler divergence),信息散度,信息增益(information gain)。KL散度是两个概率分布P和Q差别的非对...原创 2020-03-25 15:25:11 · 1321 阅读 · 0 评论 -
TF2 自编码器原理
TF2之自编码器原理假设机器学习是一个蛋糕,强化学习是蛋糕上的樱桃,监督学习是外面的糖衣,无监督学习则是蛋糕本体。—Yann LeCun前言神经网络如何学习的算法,这类算法需要学习的是在给定样本????下的条件概率????(????|????)。在社交网络蓬勃发展的今天,获取海量的样本数据????,如照片、语音、文本等,是相对容易的,但困难的是获取这些数据所对应的标签信息,例如机器翻译,除了收集源语言的对话文本外,还...原创 2020-03-24 13:21:32 · 844 阅读 · 0 评论 -
TF2 RNN篇之情感分析实战【三种方式解决】
TF2 RNN篇之情感分析实战【三种方式解决】RNN篇之序列的表示方式RNN篇之Embedding层RNN篇之情感分析实战RNN层在tensorflow2的框架下,SimpleRNN层可以用keras.SimpleRNN或keras.SimpleRNNCell来表示,keras.SimpleRNN是高级的封装类不需要了解rnn的原理便可以使用,keras.SimpleRNNCel...原创 2020-03-18 16:17:11 · 1246 阅读 · 0 评论 -
TF2 RNN篇之GRU原理与实战
TF2 RNN篇之GRU原理RNN篇之序列的表示方式RNN篇之Embedding层RNN篇之SimpleRNN情感分析实战RNN篇之LSTM原理及实战RNN篇之GRU原理及实战LSTM 具有更长的记忆能力,在大部分序列任务上面都取得了比基础的RNN 模型更好的性能表现,更重要的是,LSTM 不容易出现梯度弥散现象。但是LSTM 结构相对较复杂,计算代价较高,模型参数量较大。因此...原创 2020-03-19 21:21:27 · 1066 阅读 · 0 评论 -
TF2 RNN篇之LSTM原理及实战
TF2 RNN篇之LSTM原理RNN篇之序列的表示方式RNN篇之Embedding层RNN篇之SimpleRNN情感分析实战RNN篇之LSTM原理及实战基础的 RNN 网络结构如下图所示,上一个时间戳的状态向量 ????−1与当前时间戳的输入????????经过线性变换后,通过激活函数????????????ℎ后得到新的状态向量 ????。相对于基础的RNN网络只有一个状态向量 ????,LSTM 新增了一个状态向量????????,...原创 2020-03-19 21:00:51 · 2176 阅读 · 1 评论 -
TF2 RNN篇之循环神经网络
TF2 RNN篇之循环神经网络RNN篇之序列的表示方式RNN篇之Embedding层现在我们来考虑如何处理序列信号,以文本序列为例,考虑一个句子:“I hate this boring movie”“I \ hate \ this \ boring \ movie”“I hate this boring&nb...原创 2020-03-17 19:46:22 · 1239 阅读 · 0 评论 -
TF2 RNN篇之Embedding层
TF2 RNN篇之Embedding层RNN篇之序列的表示方式RNN篇之Embedding层在神经网络中,单词的表示向量可以直接通过训练的方式得到,我们把单词的表示层叫作Embedding 层。Embedding 层负责把单词编码为某个词向量????,它接受的是采用数字编码的单词编号????,如2 表示“I”,3 表示“me”等,系统总单词数量记为????vocab,输出长度为????的向量????:v⃗...原创 2020-03-17 11:20:09 · 1960 阅读 · 1 评论 -
TF2 RNN篇之序列的表示方式
Tensorflow2.0 RNN篇之序列的表示方式RNN篇之序列的表示方式具有先后顺序的数据一般叫作序列(Sequence),比如随时间而变化的商品价格数据就是非常典型的序列,。考虑某件商品A 在1 月到6 月之间的价格变化趋势,我们记为一维向量:[????1, ????2, ????3, ????4, ????5, ????6] ,如果要表示????件商品在1 月到6 月之间的价格变化趋势,可以记为2 维张量:张量的形状是...原创 2020-03-17 11:05:12 · 848 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之模型搭建与训练
Tensorflow2.0之 YOLO篇模型搭建与训练YOLO篇之算法原理介绍YOLO篇之提取xml文件信息YOLO篇之图像信息预处理YOLO篇之YOLO1论文YOLO篇模型搭建与训练这一篇我们就要结束yolo2的代码了,代码和相关资料的下载链接在博客的最后面,文章只是模型搭建和训练的过程,代码里面涉及到的一些函数是上几篇博客中提到的,有兴趣可以去看看。模型搭建YOLO的训...原创 2020-03-14 22:33:53 · 2121 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之YOLO1论文
Tensorflow2.0 YOLO篇之YOLO1论文原理YOLO篇之算法原理介绍YOLO篇之提取xml文件信息YOLO篇之图像信息预处理YOLO篇之YOLO1论文想要彻底了解原创 2020-03-13 19:56:33 · 764 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之图像信息预处理
Tensorflow2.0 YOLO篇之提取图像信息预处理YOLO篇之算法原理介绍YOLO篇之提取xml文件信息YOLO篇之图像信息预处理在上一篇博文中,我们已经将图片的路径和boxex信息分别存储在imgs和boxes的变量当中,现在我们就把他们转化为YOLO网络可以用的形式,本文中还是使用过vscode支持的jupyter的分布执行。有一说一,这个功能是真的好用转化为张量类型...原创 2020-03-13 16:01:25 · 1931 阅读 · 5 评论 -
Tensorflow2.0 YOLO篇之提取xml文件信息
Tensorflow2.0 YOLO篇之提取xml文件信息YOLO篇之算法原理介绍YOLO篇之提取xml文件信息数据集介绍数据集下载地址:链接:https://pan.baidu.com/s/1ZP9H2ym3Vp4Sda1mNiv9Pw 提取码:5okb 复制这段内容后打开百度网盘手机App,操作更方便哦这次选择的数据集是甜菜(sugarbeet)和杂草(weed)的数...原创 2020-03-11 21:24:32 · 1651 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之算法原理介绍
Tensorflow2.0 YOLO篇之算法原理介绍YOLO篇链接YOLO篇之算法原理介绍YOLO篇是记录最近研究YOLO算法的一个过程,这一篇会从YOLO原理讲起,一直到自己搭建数据集,去搭建YOLO网络并最终完成的一个过程什么是目标检测?检测图片中目标所在的位置,以及图片所属的类别。在计算机视觉中我们处理的往往都是分类的任务,图片一般都是采集好的,图片中的信息都是比较单一的,...原创 2020-03-10 23:24:21 · 2592 阅读 · 2 评论 -
Tensorflow2.0之自定义数据集
Tensorflow2.0之自定义数据集Brief在学习Deep Learning的过程中我们难免会因为需求而要使用自定义的DS,本文就简要的介绍如何自定义DSPoKemon Dataset这次我们使用的是PoKemon Dataset ,在自定义数据集之后会训练一下参数效果数据集使用的是龙龙老师课上的数据集下面是百度网盘的链接:▪链接 : https://pan.baidu.co...原创 2020-03-06 14:57:35 · 4112 阅读 · 0 评论