60分钟入门PyTorch | |
70 道 NumPy 测试题 | |
NumPy 图解教程! | |
Python 调试器入门 | |
PyTorch 模型训练实用教程(附代码) | |
一篇长文学懂 pytorch | |
这 100 道练习,带你玩转 Numpy | |
|
|
Python实现对12500张猫狗图像的精准分类 | |
轻松学 PyTorch:使用卷积神经网络实现图像分类 | |
实操教程|PyTorch实现断点继续训练 | |
使用PyTorch来进展不平衡数据集的图像分类 | |
「新生手册」:PyTorch分布式训练 | |
|
|
“吴恩达deeplearningai”微信公众号上线,将发布《机器学习训练秘籍》 | |
“无人机放牛”了解一下:别对牛弹琴,它心动了我知道 | |
1x1卷积详解:概念、优势和应用 | |
ICML 2021 (Long Oral) | 深入研究不平衡回归问题 | |
Kaggle知识点:数据扩增方法 | |
YOLO 算法最全综述:从 YOLOv1 到 YOLOv5 | |
不要只关注算法与模型,这里有份产品级深度学习开发指南 | |
常用数据增广方法,解决数据单一问题 | |
彻底搞懂机器学习中的正则化 | |
从AlexNet到BERT:深度学习中那些最重要idea的最简单回顾 | |
从零开始实现循环神经网络(无框架) | |
从猫狗不分到实时识别准确率超过99%,计算机图像识别是如何做到的? | |
从最优化的角度看待 Softmax 损失函数 | |
大改 Yolo 框架 | 能源消耗极低的目标检测新框架(附论文下载) | |
基于 Pytorch 对 YOLOV5 进行简易实现 | |
机器学习避坑指南:训练集/测试集分布一致性检查 | |
机器学习系列 | 防止过拟合的方法总结 | |
近两年小样本学习取得重大进展了吗 | |
经典论文系列 | Group Normalization & BN 的缺陷 | |
卷积神经网络中用 1*1 卷积有什么作用或者好处呢? | |
绝对不容错过:最完整的检测模型评估指标mAP计算指南(附代码)在这里! | |
理解L1, L2正则化的正确姿势 | |
迁移学习与跨域推荐,以及解决跨域推荐的方法 | |
轻量级网络/检测/分割综述 | |
入门|一文了解神经网络中的梯度爆炸 | |
深度学习检测小目标常用方法 | |
深度学习训练tricks总结(均有实验支撑) | |
神经网络知识专题总结! | |
使用Batch Normalization折叠来加速模型推理 | |
通俗理解生成对抗网络GAN | |
图像分类的技能包及每一项的实验验 | |
图像数据读取及数据扩增方法 | |
为什么Batch Normalization那么有用? | |
为什么现在大家喜欢用 3*3 小卷积? | |
为什么要用3x3卷积?偶数卷积核其实表现更强 | NeurIPS 2019 | |
物体检测中的小物体问题 | |
详解Batch Normalization及其反向传播 | |
小目标检测:数据增强 | |
小样本学习跨域(Cross-domain)问题总结 | |
验证 | 单纯用LSTM预测股价,结果有多糟(附代码) | |
样本量极少如何机器学习?最新Few-Shot Learning综述 | |
一文读懂生成对抗网络(GANs)【下载PDF | 长文】 | |
用 Pytorch 理解卷积网络 | |
「元学习」解析:学习如何梯度下降与学习新的算法 | |
在机器学习项目中该如何选择优化器 | |
涨点技巧!小目标检测:数据增广 | |
真实场景下如何解决类别不平衡问题 | |
真正的即插即用!盘点11种CNN网络设计中精巧通用的“小”插件 | |
总结 27 类深度学习主要神经网络:结构图及应用 | |
做 ML 有关的工作,需要哪些技能? | |
梯度下降算法的工作原理 |