一、文献阅读
二、深度学习
- 1x1卷积(Conv 1*1)的作用(简)
- 一文读懂卷积神经网络中的1x1卷积核(详)
- torch.nn.Conv2d()函数和channel的理解
- Pytorch中torch.autograd.Variable的用法
- PyTorch:学习conv1D,conv2D和conv3D
- 网络中BN层的作用
- PyTorch的nn.Linear()详解
- 解惑(一) ----- super(XXX, self).init()到底是代表什么含义
- 跳跃连接
- 一文概览主要语义分割网络,FCN、UNet、SegNet、DeepLab 等等等等应有尽有
- 小波变换
- 一文读懂语义分割与实例分割
- 深度学习——分类之ResNeXt
- ResNet中的BasicBlock与bottleneck
- bottleneck与basicblock
- SAGAN——Self-Attention Generative Adversarial Networks
- Adam与SGD
- [学习笔记]lr_scheduler用法总结
- 【pytorch】transforms.Compose()使用
- Pytorch 中net.train() 和 net.eval()的作用和如何使用?
- 【深度学习】介绍六大类损失函数
- 简单教你计算图片数据集的均值和方差
- 梯度下降法(GD)与随机梯度下降法(SGD)的理解
- pytorch的两个函数 .detach() .detach_() 的作用和区别
- Pytorch 为什么每一轮batch需要设置optimizer.zero_grad
- Pytorch篇.item()与.data的区别
- 数据归一化处理transforms.Normalize()
- transforms.ToTensor()与transforms.Normalize()函数解析
- 数据处理中ToTensor紧接着Normalize
- pytorch之model.cuda()、model.train()和model.eval()
- TypeError: img should be PIL Image. Got <class ‘dict‘>/Got<class ‘Torch.Tensor‘>/Got<class ‘numpy.n>
- 随机森林和神经网络有什么区别?
- torch.view()、transpose()和permute()的联系与区别
- pandas中iloc与loc区别
- python中yield的用法详解——最简单,最清晰的解释
- ResNeXt50、ResNest50、ResNet50、从EfficentNet到AutoML
- UserWarning: The parameter ‘pretrained’ is deprecated since 0.13 and will be removed in 0.15, ple…
- PyTorch学习之六个学习率调整策略
- 有关optimizer.param_groups用法的示例分析
- PyTorch 学习笔记:transforms的二十二个方法(transforms用法非常详细)
- 【Python】PIL库中图像的mode参数
一些深度学习相关的库
1.最快最好用的数据增强库「albumentations」 一文看懂用法
2.Pytorch视觉模型库–timm
3.Python图像库PIL的类Image及其方法介绍
4.非常详细的sklearn介绍
Numpy, Pandas, skimage
三、Pytorch
四、Python
- Python依赖库、安装包(源码安装)
- Conda和pip安装库之间的区别
- python3中argparse模块详解
- Python functools.wraps 深入理解
- python @property的介绍与使用
- Python值传递还是引用传递
- 【C++】六大排序算法:插入排序、希尔排序、选择排序、冒泡排序、堆排序、快速排序
五、Git
- Merge the incoming changes into the current branch:将传入的更改合并到当前分支中;Rebase the current branch on top of the incoming changes:在传入更改的基础上重新建立当前分支。说白了代码冲突的时候勾选第一个就会提示问你留哪个,勾选第二个就直接覆盖