一、今日学习内容
1.LeCun怒赞!90.4%准确率!DeepMind新作:CNN可媲美视觉Transformer
摘要:
DeepMind的最新研究发现,模型性能主要由可用的算力和数据来决定。他们发现在相同计算量下,卷积神经网络模型和视觉Transformers模型的性能旗鼓相当。
感想:
个人理解是CNN网络经过足够多的数据和足够多的预训练,也能赶上Transoformer.
2.PaddleSeg:车道线检测
摘要:
本文介绍了车道线检测问题以及如何使用PaddleSeg进行训练,获得预测结果并进行可视化。通过裁剪图像的上半部分,我们可以省略掉不必要的天空区域并节省内存空间。在训练过程中,参考了PaddleSeg文档中给出的类别不均衡问题的处理方式。最终,通过修改vis.py使其将预测结果输出为单通道灰度图,实现了预测可视化。
感想:
文章本身技术含量也是一般般,但有两点比较有意思:
1.图片直接提取ROI,去除上半部分不包括车道的内容进行训练和标注,推理
2.PaddleSeg中提供了类别不均衡的处理能力
在图像分割任务中,经常出现类别分布不均匀的情况,例如:工业产品的瑕疵检测、道路提取及病变区域提取等。
针对这个问题,您可使用Weighted softmax loss、Dice loss、Lovasz hinge loss和Lovasz softmax loss进行解决。
Weighted softmax loss
Weighted softmax loss是按类别设置不同权重的softmax loss。
通过设置
cfg.SOLVER.CROSS_ENTROPY_WEIGHT
参数进行使用。
默认为None. 如果设置为'dynamic',会根据每个batch中各个类别的数目,动态调整类别权重。也可以设置一个静态权重(list的方式),比如有3类,每个类别权重可以设置为[0.1, 2.0, 0.9]. 示例如下SOLVER: CROSS_ENTROPY_WEIGHT: 'dynamic'
一、今日感想
<<男子因高彩礼退婚,拿16.8万辞职旅行:与其欠一屁股债,不如出去看看>>
这个文章,有点意思,也确实反映了当下很多年轻人的心态。 不将就,灵活。
婚姻越来越成为非必需品。
“其实每次相亲我都有点难受,我跟女生一起吃海底捞,看电影啥的,可我父母从来没吃过海底捞”
这句话说出来,体现了原生家庭对他身上打上的印记,我们这代人的父母往往在教育中无意流露出子女对他们的“欠债”义务的观点,当然和贫穷也是密切相关。 我希望我儿子以后不会背负这个十字架。
养大你是我的义务。但你并不欠我什么。