自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 车道线检测

近期阅读的几篇关于车道线检测的论文总结。 1. 任务需求分析 1.1 问题分析 针对车道线检测任务,需要明确的问题包括: (1)如何对车道线建模,即用什么方式来表示车道线。 从应用的角度来说,最终需要的是车道线在世界坐标系下的方程。而神经网络更适合提取图像层面的特征,直接回归方程参数不是不可能,但限制太多。 由此,网络推理输出和最终结果之间存在一个Gap,需要相对复杂的后处理去解决。 (2)网络推理做到哪一步。 人在开车时观察车道线,会同时关注两方面信息: 绘制在路面上的车道线标识本身 通过车...

2020-12-29 12:03:23 3235 1

原创 主动学习

*主动学习就像学生(分类器)学习一样,专门学习自己不会的(最有价值的未标记样本),然后再通过老师讲解(专家标注),不断提高自己成绩 Active Learning,即主动学习,通过一定的算法查询最有用的未标记样本,并交由专家进行标记,然后用查询到的样本训练分类模型来提高模型的精确度。* 深度学习在各种各样的实际应用中取得巨大突破,其主要的推动力在于三个方面:数据,算法和算力。也就是说,在很多情况下,一个完整的解决方案,需要具备这样的条件:1)足够的.

2020-12-18 21:25:25 277 1

转载 图解Transformer(完整版)

编者按:前一段时间谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型最早是用于机器翻译任务,当时达到了SOTA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。并且Transformer可以增加到非常深的深度,充分发掘DNN模型的特性,提升模型准确率。在本文中,我们将研究Transformer模型,把它掰开揉碎,理

2020-12-03 16:26:52 1348

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除