MLDL
文章平均质量分 79
우 유
梦想是做一枚宝藏女孩
展开
-
【个人笔记 | 卷积大礼包 | 整理中Ing】
五湖四海的卷积家人们欢聚一堂。原创 2023-03-06 11:05:11 · 330 阅读 · 0 评论 -
【个人记录 | 注意力机制 | 整理ing】
Attention is all you need.原创 2023-01-14 11:55:56 · 189 阅读 · 0 评论 -
论文阅读|Read Research Papers吴恩达|整理中
How to Read Research Papers (Andrew NgStanford Deep Learning Lectures)原创 2021-10-20 10:23:51 · 869 阅读 · 0 评论 -
【分割笔记 | 整理中Ing】
分割、医学图像分割(相关资料积累中)原创 2022-11-01 15:58:10 · 737 阅读 · 0 评论 -
【答疑 | 个人纪录】decisionTree
利用决策树算法进行多因子选股原创 2022-07-18 16:51:19 · 326 阅读 · 0 评论 -
【Loss聚集地 | 整理中Ing】
常用loss整理、遇到的loss问题原创 2022-02-28 14:06:37 · 90 阅读 · 0 评论 -
[DL]动手学深度学习v2-ing
【资源目录】1. 课程主页 2.教材 -具体 3. 讨论论坛 4. Pytorch讨论论坛【】原创 2022-01-12 10:05:46 · 983 阅读 · 0 评论 -
【个人记录 |整理中ing 】Normalization
走进标准化。原创 2022-01-05 13:15:47 · 709 阅读 · 0 评论 -
【个人笔记 | 训练参数 | 整理ing】
调参原创 2021-12-07 23:01:57 · 118 阅读 · 0 评论 -
[翻译]Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
Batch Normalization: Accelerating Deep Network Training byReducing Internal Covariate Shift批处理归一化:通过减少内部协变量移位来加速深度网络训练摘要训练深度神经网络是复杂的,因为在训练过程中,每一层的输入分布都会随着前一层参数的变化而变化。由于需要较低的学习率和小心的参数初始化,这减慢了训练的速度,并且使得训练具有饱和非线性的模型变得非常困难。我们将这种现象称为内部协变量移位,并通过规范化层输入来解.翻译 2021-12-07 15:24:20 · 287 阅读 · 0 评论 -
机器学习深度学习 | 吴恩达李宏毅
【资源】中文笔记|【记录】原创 2021-11-05 08:46:03 · 873 阅读 · 0 评论