自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(39)
  • 收藏
  • 关注

转载 Windows下使用anaconda安装Labelme并标注自己的数据集

查看该文章在这里

2021-05-07 19:13:40 114

原创 ubuntu配置mmdetection 的CPU版本

由于大多数的服务器没有GPU,我们想要在上面跑openmmlab项目中的mmdetection需要装CPU版本的,由于官方的感觉有点模糊,所以自己搜索资料跑通了一个[mmdetection连接](https://github.com/open-mmlab/mmdetection)、当然mmlab其他项目应该也是类似的1.首先老样子,创建环境conda create -n mmlab python=3.6 -yconda activate open-mmlab2.然后,安装torch的cpu版本

2021-05-07 17:54:34 2909 1

原创 GAN

什么是GAN对于生成图片的GAN网络来说,就是G一直通过一堆随机信号来生成图片送给D,而D同时接受真实图片和G传输过来的图片来进行判别,当D做出正确的选择的时候(认清真假)那么就很好,D达到目标,但是G不满意于是进行自我进化,当G成功欺骗了D的时候那么G做的很好,D就必须进行自我进化了损失函数...

2021-04-30 15:32:32 128

原创 involution内卷

首先,本文章是基于 机器之心:超越卷积、自注意力:强大的神经网络新算子「内卷」解读,的一些个人总结这里放上B站链接普通卷积这是普通卷积,图上为取一个卷积核的其中一个通道的对目标的一个通道的卷积内容,一般我们取3x3作为卷积核,卷积核从图像的某一个角落进行滑动,将图片内容根据滑动块各部分的权重与对应的卷积核乘积之和进行求和作为我们的的输出,还有一个padding的操作,这是为了方便改变卷积输出的维度内容内卷involution普通的卷积具有空间不变性和通道差异性,而内卷则具有相反的特性:空间差异性

2021-04-26 23:10:54 2671

原创 python学习路线(很早之前的)

2021-04-26 22:18:28 40

原创 池化的作用

2021-04-26 22:18:21 230

原创 经典CNN、残差

残差

2021-04-26 22:18:16 161

原创 nn.Module操作、pytorch自带的数据增强

pytorch的一些数据增强的方式

2021-04-26 22:18:07 154

原创 pytorch之索引与切片

2021-04-25 14:07:30 60

原创 八度卷积代码实现

忘记从哪个大佬那摘下来了

2021-04-25 14:07:22 625 1

原创 记录一下自己之前的垃圾OneNote笔记

51单片机stm32pytorchpy数据处理吴恩达硬件各种模块pythonQT的部分,还有部分TMD丢了djangoTransformer结构总之,拜拜Onenote,你好CSDN

2021-04-25 14:07:08 136

原创 pytorch之基本Tensor的创建

2021-04-25 14:06:49 78

原创 初始化

2021-04-25 14:06:43 50

原创 归一化的作用就是BN

2021-04-25 14:06:35 160

原创 快速排序

直接上源码#快速排序"""思路:首先在第一个位置挖一个坑(key),然后右指针开始向左移动,直到找到一个比坑中数字小的,把坑填上,然后原来的小的地方多出来一个坑,现在左指针开始向右移动,直到找到一个比右边停下来的坑小的填补上去,如此往复,直到两个指针重合,然后取重合地分界的两个区间,继续调用递归算法"""#开始def transform(nums,i,j): #ii和jj分别是左右指针的基准位置 #定义交换函数 #定义i,j指针 ke

2021-04-25 14:06:13 83 1

原创 梯度、常见函数的梯度、激活函数、loss以及梯度、函数极小值优化

函数极小值优化

2021-04-25 14:05:59 121

原创 BN层

2021-04-25 14:05:54 84

原创 Python一些基本的多进程和多线程

2021-04-25 14:05:42 50

原创 pytorch之维度变换、自动扩展、拼接拆分、基本运算、统计属性、高阶OP

维度变换拼接拆分基本运算统计属性

2021-04-24 09:26:25 115

原创 交叉熵损失函数、全连接、激活函数与GPU加速、visidom可视化、交叉验证、Regularzation、设置动量、EarlyStop,Dropout、池化

全连接激活函数与GPU加速Regularzation就是正则化动量,函数的凸优化,训练的小trick

2021-04-24 09:26:16 127

原创 在qt中使用pygame做音乐播放器,并使用mutagen模块获取MP3时长

2021-04-24 09:25:54 547

原创 Transformer结构

一、位置编码二、注意力机制三、残差LayNorm四、Decoder

2021-04-24 09:25:28 39

原创 文本编译器vi操作

2021-04-24 09:24:39 68

原创 Django

基本的H5和CSSDjango最小程序Django的MTV开发模式框架视图响应流式响应机制模板引擎与模板使用模板语言

2021-04-24 09:24:23 44

原创 python基础库

一、Sys库二、os库创建文件夹

2021-04-24 09:24:05 92

原创 动手学习深度学习的pytorch版本

https://tangshusen.me/Dive-into-DL-PyTorch/#/

2021-04-24 09:23:56 65

原创 matplotlib

一、多维数据存储二、随机数函数三、统计函数四、梯度函数图像数组的表示图像的变换图像的手绘风格效果matplotlib库的使用pyplot中的中文显示方法子绘图区域

2021-04-24 09:23:39 34

原创 pytorch之数据操作

2021-04-24 09:23:26 56

原创 网页转文档

2021-04-23 15:28:14 54

原创 onenote笔记搬运服务器手动安装anaconda

2021-04-23 15:25:25 157

原创 Git仓库

Git仓库是个很有用的东西

2021-04-23 15:24:18 36

原创 乌班图

一、安装二、更换国内镜像源三、配置服务器

2021-04-23 15:23:16 141

原创 Onenote搬运计划之py面向对象编程

2021-04-23 15:22:05 83

原创 Pip安装国内镜像源

2021-04-23 15:21:03 97

原创 onenote笔记搬运计划之深度学习吴恩达

一、监督学习和无监督学习二、梯度下降,深度学习的核心三、线性回归的梯度下降四、线性代数部分五、多变量的线性回归六、多元梯度下降七、特征和多项式回归八、正规方程九、Logistic回归十、代价函数十一、一对多分类十二、过拟合和正则化十三、线性回归正则化十四、神经网络十五、反向传播算法十六、梯度检测十七、BP神经网络十八、算法性能评估十九、模型的选择...

2021-04-23 15:20:13 108

原创 Onenote笔记搬运计划之硬件各种模块

一、L298N模块,这是一种电机驱动模块二、AT24C02模块三、74HC595模块四、74HC573模块五、舵机六、超声波模块七、42步进电机驱动模块两种方式八、我也不知道是什么东西,貌似是支持micropython开发的开发板吧...

2021-04-23 15:13:28 239

原创 Onenote笔记搬运计划之stm32

stm32也没学多少就去学深度学习了,笔记丢掉也怪可惜一、开始二、32的最小系统的设计三、32相关四、GPIO口五、跑马灯

2021-04-23 15:09:52 100

原创 Onenote笔记搬运计划之51单片机

首先,onenote如果你没有强大的上网能力千万不要用,最近要重装电脑,这个onenote的笔记没法本地导出,链接onedrive也连不上去,所以只得出此下策,讲onenote中的笔记搬运到CSDN上面,本来就记得很乱,这一搬运就更乱了一、这个网站有很多元器件的datasheet二、三、流水灯四、数码管显示五、数码管显示实例六、点阵屏七、点阵屏示例八、51中断系统九、外部中断例程十、定时计数器十一、定时,计数器例程十二、定时器中断十三、中断型定时器十四、串口通信十

2021-04-23 15:07:16 142 1

转载 pytorch中BatchNorm1d、BatchNorm2d、BatchNorm3d的区别

1.nn.BatchNorm1d(num_features)1.对小批量(mini-batch)的2d或3d输入进行批标准化(Batch Normalization)操作2.num_features:来自期望输入的特征数,该期望输入的大小为’batch_size x num_features [x width]’意思即输入大小的形状可以是’batch_size x num_features’ 和 ‘batch_size x num_features x width’ 都可以。(输入输出相同)输入

2021-03-20 18:45:00 9640

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除