MyML
文章平均质量分 76
Kadima08
这个作者很懒,什么都没留下…
展开
-
神经网络不同样本输出值一样的处理(个人记录)
输出一样原创 2023-02-22 22:54:30 · 1352 阅读 · 0 评论 -
BatchNorm和LayerNorm的对比
BatchNorm适用于CV,而LayerNorm适用于NLP,这是由两个任务的本质差异决定的,视觉的特征是客观存在的特征,而语义特征更多是由上下文语义决定的一种统计特征,因此他们的标准化方法也会有所不同。转载 2023-02-22 22:49:20 · 221 阅读 · 0 评论 -
非平衡数据损失函数之Focal Loss for Dense Object Detection
最近在思考非平衡数据集的分类问题,总是觉得交叉熵(CE)即使带了权重也并不够orientied。原创 2022-03-14 16:34:01 · 3719 阅读 · 0 评论 -
吴恩达机器学习第二章 学习笔记
第二章 模型评估与选择2.1经验误差与过拟合经验误差m样本数量,Y样本正确结果,预测结果Y’——>错误a个error rate:E=a/m 误差:|Y-Y’| accuracy=1-E训练集上的误差称为“训练误差”或“经验误差”,新样本上的误差称为“泛化误差”过拟合把训练样本自身的一些特点当作所有潜在样本都具有的性质,泛化能力下降欠拟合容易克服,而过拟合较为麻烦且无法彻底避免2.2评估方法...原创 2020-08-12 16:16:22 · 476 阅读 · 0 评论 -
20200809-Supervise
Supervised vs. UnsupervisedSup.Features are matched with lables in training dataset.Classification of Sup.Regression(successive)fit the curve y=f(x)Classification(discret&finite)usually input vectors and output lablesUnsup.Relation原创 2020-08-09 23:22:27 · 109 阅读 · 0 评论