深度学习基础知识
文章平均质量分 66
Mr.Q
纸上得来终觉浅,绝知此事要躬行。 ---陆游
展开
-
softmax,log_softmx,nll_loss和CELoss之间的关系
softmax,log_softmx,nll_loss和CELoss之间的关系原创 2023-01-18 10:13:21 · 553 阅读 · 0 评论 -
过拟合的解决办法
一,过拟合的定义模型在训练集表现良好,在测试集上效果较差,即为过拟合。二,解决办法分析过拟合的原因,根据不同的原因,提出不同的解决办法:1. 获取更多的数据,1) 获取更多的原数据:如猪脸识别,但是获取过程成本较高,因为人工拍摄费时费力,猪也在不停地运动;2) 或者在原数据的基础上,进行数据增强(图像平移,旋转,镜像等):如在物体分类问题里,物体在图像中的位置、姿态、尺度,...原创 2018-09-01 21:05:08 · 1948 阅读 · 0 评论 -
改善深层神经网络:超参数调试、正则化以及优化
听Andrew Ng深度学习课程,知识点整理 3.1.2 Bias and Variance High bias: 训练集上,性能差,也即欠拟合(模型拟合能力)High variance: 训练集上表现较好, 验证集上,性能差,也即过拟合(模型稳定性) 5.1.3 Basic recipe for machine learning优化模型的第一步是,查看是否具有...原创 2018-09-14 16:25:03 · 1476 阅读 · 0 评论 -
语义分割和实例分割
原创 2018-11-25 20:45:35 · 3589 阅读 · 0 评论 -
批量读取数据next_batch函数的实现
输入的是训练数据路径data_path,label_path,还有batch_size;输出的是:train_data_batch,shape 是( [batch_size,img_row, img_col, 3]) # 可相应变化train_label_batch,shape是([batch_size, img_row, img_col]) # 可相应变化import cv...原创 2019-04-09 16:21:05 · 2520 阅读 · 0 评论 -
常用Loss总结
1. BCELoss用于二分类任务,二值交叉熵(Binary Cross Entropy)。公式如下,其中y是真实值,是预测值:使用方式如下:class torch.nn.BCELossExamples:: >>> m = nn.Sigmoid() >>> loss = nn.BCELoss() ...原创 2019-09-12 15:27:18 · 11174 阅读 · 2 评论