论文阅读
文章平均质量分 82
Jankin_Tian
今天要比昨天更好
展开
-
Does Multi-Encoder Help? A Case Study on Context-Aware Neural Machine Translation 阅读笔记
文章目录阅读兴趣点一、 摘要二、主要方法介绍三、主要实验结果及可视化效果四、总结及讨论论文名称:Does Multi-Encoder Help? A Case Study on Context-Aware Neural Machine Translation【被ACL 2020接受】github地址阅读兴趣点论文的题目很吸引人:《多编码器有帮助吗?情境感知神经机器翻译的案例研究》现阶段很多人都是一直研究模型,很少说是探讨,某个模块的作用;究其原因都是因为神经网络的可解释性太差,没有比较好的理论基原创 2020-09-09 09:35:43 · 364 阅读 · 0 评论 -
[CVPR 2020]ContourNet:更准确的任意形状场景文本检测新方法
论文名称:【2020 CVPR】ContourNet: Taking a Further Step toward Accurate Arbitrary-shaped Scene Text DetectionContourNet论文地址:https://arxiv.org/pdf/2004.04940.pdfContourNet开源代码:https://github.com/wangyuxin87/ContourNet背景:近年来场景文本检测的研究发展迅速,但其中有两个困难的挑战未被很好解决,转载 2020-06-19 10:59:02 · 3676 阅读 · 2 评论 -
人脸颜值预测(facial beauty prediction)综述
文章目录一、什么是人脸颜值预测二、主要方法2.1 传统方法2.2 深度的方法论文:2020年 Deep Learning for Facial Beauty Prediction创新点:流程一、什么是人脸颜值预测人脸颜值预测是一个新兴问题,目的是使评价与人类的观点相一致。FBP是一个回归问题。为了处理这个问题,用有数据驱动的方法来寻找面部特征与美容评估之间的关系。二、主要方法2.1 传统方法2.2 深度的方法卷积神经网络(CNN)在面部识别和理解方面表现出巨大的性能,被证明是一种有效的面原创 2020-09-17 18:16:24 · 4477 阅读 · 0 评论 -
目标检测--YOLO v3论文阅读笔记
文章目录前文阅读前言网络结构分析1、Bounding Box的预测(与YOLO v2一致)2、分类预测 --- 独立的Logistics回归代替Softmax3、多尺度的预测4、新的特征提取网络---DarkNet-53网络结构实验结果一些无效的策略1、直接预测 Anchor Box中 x,y的偏移2、预测x,y偏移量,使用线性激活函数代替logistics激活函数3、使用Focal Loss4、双重IOU阈值总结代码阅读参考资料前文阅读一、YOLO v1 论文阅读笔记(附代码)二、YOLO v2 学原创 2020-09-24 10:37:52 · 471 阅读 · 0 评论 -
目标检测--YOLO v2 学习笔记
文章目录前文阅读创新点YOLO v1 存在的问题如何解决?网络框架实验结果分析代码解读前文阅读一、YOLO v1 论文阅读笔记(附代码)paper地址:YOLO9000:Better, Faster, Stronger创新点本文中的改进是针对YOLO v1中的问题,进行改机的。YOLO v1 存在的问题主要存在以下两个问题:预测的框不准确很多目标找不到如何解决?如图所示,列出了YOLO v2的所有改进策略:(1)batch normalization(批归一化)批归一化原创 2020-09-21 20:33:47 · 550 阅读 · 0 评论 -
目标检测--YOLO v1 论文阅读笔记(附代码)
文章目录创新点网络主要结构实验结果分析代码解读特征提取层:定义检测头:整体模型:主函数:train()函数:input_process:target_process:Loss 函数参考文献算是写一个系列吧,目标检测的系列文章。创新点(1)解决目标检测速度慢的问题。(2)解决多目标检测。---- NMS(非极大值移植)(3)解决多类目标检测。---- 带类别输出。(4)解决小目标检测。 ---- 输出大目标和小目标两类数据。网络主要结构模型最后的输出是 7×7×307 × 7 × 307×原创 2020-09-16 12:15:45 · 493 阅读 · 0 评论 -
Transformer系列--多模态多任务的统一Transformer“Transformer is all you need”
文章目录前言一、Motivation二、网络结构分析三、实验结果分析四、总结与反思五、参考文献前言论文:Transformer is all you need:Multimodal multitask Learning with a Unified Transformer地址:https://arxiv.org/pdf/2102.10772.pdfcode:暂未公布一、MotivationTransformer首先应用于sequence-to-sequence模型的自然语言处理领域。随着Tr原创 2021-03-07 22:18:21 · 2294 阅读 · 1 评论