📑论文泛读
文章平均质量分 96
深度学习的开始应该从看论文开始,论文才是代表最新的成果和成功的结晶
风信子的猫Redamancy
在校本科大学生 B站up小白风信子的猫Redamancy 个人博客地址: https://kedreamix.github.io/
2022第十三届蓝桥杯PythonB组省一等奖,以及国赛一等奖
2022年第十二届MathorCup高校数学建模挑战赛 研究生组 二等奖
对计算机视觉,人工智能,以及机器学习等方面感兴趣
放弃不难 但坚持一定很酷
成功的法则极为简单,但简单并不代表容易
希望自己在这条路上,不孤单,不言弃,不言败
Stay Hungry,Stay Foolish
有时候没有及时回私信等等,可以发邮件咨询,[email protected],你们的问题我都会认真看和回答的
展开
-
【论文泛读】 Deep Learning 论文合集
【论文泛读】 Deep Learning 论文合集文章目录【论文泛读】 Deep Learning 论文合集Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate ShiftImageNet Classification with Deep Convolutional Neural NetworksVery Deep Convolutional Networks for Large-Sca原创 2021-10-12 00:00:00 · 5224 阅读 · 0 评论 -
【论文精读】 SadTalker:Stylized Audio-Driven Single Image Talking Face Animation(CVPR2023)
不自然的头部运动扭曲的表情和身份变化。作者认为这些问题主要是因为从耦合的 2D 运动场中学习。另一方面,使用 3D 信息也存在表情僵硬和视频不连贯的问题。因此作者提出SadTalker,生成3DMM的三维(头部姿势、表情)系数,利用三维面部渲染器进行视频生成。为了学习逼真的运动场系数,作者建模音频与不同类别运动场系数之间联系。作者提出ExpNet,蒸馏运动场系数与三维渲染人脸学习准确面部表情。对于头部姿势,作者设计PoseVAE生成不同风格头部动画。原创 2023-03-24 18:22:25 · 3979 阅读 · 0 评论 -
【虚拟人综述论文】Human-Computer Interaction System: A Survey of Talking-Head Generation
由于人工智能的快速发展,虚拟人被广泛应用于各种行业,包括个人辅助、智能客户服务和在线教育。拟人化的数字人可以快速与人接触,并在人机交互中增强用户体验。因此,我们设计了人机交互系统框架,包括语音识别、文本到语音、对话系统和虚拟人生成。接下来,我们通过虚拟人深度生成框架对Talking-Head Generation视频生成模型进行了分类。同时,我们系统地回顾了过去五年来在有声头部视频生成方面的技术进步和趋势,强调了关键工作并总结了数据集。原创 2023-03-04 13:31:18 · 3765 阅读 · 0 评论 -
【论文泛读】NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
我们提出一种方法,使用较少的视图(view)作为输入,对一个连续、隐含的体积场景函数(volumetric scene function)进行优化,从而实现了关于复杂场景的新视图合成的最先进的结果。我们的算法用全连接深度网络来表示场景,其输入是5D 坐标空间位置xyz(x,y,z)xyz和视角方向(viewing direction)$ (θ,ϕ)$;其输出是体积密度(volume density)和该空间位置上发射出来的辐射亮度(radiance,与视角相关)。通过沿着。原创 2023-03-04 00:46:49 · 1107 阅读 · 0 评论 -
【论文泛读】ConvNeXt:A ConvNet for the 2020s(新时代的卷积)
在新时代中,是否卷积神经网络就已经被时代淘汰了呢!FaceBook研究所的“A ConvNet for the 2020s”,即ConvNeXt 这篇文章,通过借鉴 Swin Transformer 精心构建的 tricks,卷积在图像领域反超 Transform。这些技巧对分类问题下游downstream的问题也有效果。简单的来说,似乎就是说明,用Swin Transformer的丹方,在卷积神经网络中炼丹也有很好的效果。原创 2023-01-07 13:21:55 · 2552 阅读 · 0 评论 -
【论文泛读】 知识蒸馏:Distilling the knowledge in a neural network
深度学习在计算机视觉、语音识别、自然语言处理等内的众多领域中均取得了令人难以置信的性能。但是,大多数模型在计算上过于昂贵,无法在移动端或嵌入式设备上运行。因此需要对模型进行压缩,且知识蒸馏是模型压缩中重要的技术之一。现如今,知识蒸馏被广泛的用于模型压缩和迁移学习当中,这篇就是知识蒸馏的开山之作,今天我也一起读一下这篇论文,学习学习。原创 2022-05-29 06:30:00 · 5340 阅读 · 0 评论 -
【论文泛读】 ResNeXt:深度神经网络的聚合残差变换(ResNet的改进,提出了一种新的维度)
【论文泛读】 ResNeXt:深度神经网络的聚合残差变换文章目录【论文泛读】 ResNeXt:深度神经网络的聚合残差变换主要思想摘要模型结构Inception模块split-transform-merge分组卷积ResNeXt模型结构ResNeXt模型评估及结论总结和感想论文链接: Aggregated Residual Transformations for Deep Neural Networks)主要思想简单来说呢,随着很多SOTA模型的出现,从一开始的“特征工程”慢慢地转入了一些“网络工程”原创 2022-03-30 00:17:58 · 7095 阅读 · 0 评论 -
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
2017年的时候,Google公司提出了MobileNet V1,发布在CVPR中,可谓是轻量级网络的Inception,提出了深度学习的另一种思路。在之前的深度学习界中,大部分学者为了在竞赛中刷分,得到更多的准确率,不断的加深神经网络的层数,在ResNet中甚至可以达到1000层,可谓是非常非常深,并且在ResNet中第一次超过了人类的准确率。而在MobileNet,这是专注于在移动网络上的轻量级网络,提出了一个新的思路,MobileNet就是针对移动端计算机视觉应用的高效卷积网络。原创 2021-12-07 13:11:55 · 5260 阅读 · 0 评论 -
【论文泛读】 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
【论文泛读】 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift文章目录【论文泛读】 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift摘要 Abstract介绍 Introduction减少 Internal Covariate Shift原创 2021-10-10 00:03:26 · 5391 阅读 · 0 评论 -
【论文泛读】 YOLO v3:An Incremental Improvement
【论文泛读】 YOLO v3:An Incremental Improvement文章目录【论文泛读】 YOLO v3:An Incremental Improvement摘要 Abstract介绍 Introduction更新改进 The DealBounding Box PredictionClass PredictionPredictions Across ScalesFeature ExtractorTrainingYOLOv3 Loss我们做的怎么样 How We Do失败的尝试 Things原创 2021-09-26 21:04:54 · 5229 阅读 · 0 评论 -
【论文泛读】 YOLO v2:Better,Faster,Stronger
【论文泛读】 YOLO v2:Better,Faster,Stronger文章目录【论文泛读】 YOLO v2:Better,Faster,Stronger摘要 Abstract介绍 Introduction预测更准确(Better)batch normalization 批归一化High Resolution ClassifierConvolutional With Anchor BoxesDimension ClustersDirect location predictionFine-Grained原创 2021-09-04 18:23:19 · 5258 阅读 · 27 评论 -
【论文泛读】 YOLO v1:统一、实时的目标检测框架
【论文泛读】 YOLO v1:统一、实时的目标检测框架文章目录【论文泛读】 YOLO v1:统一、实时的目标检测框架摘要 Abstract介绍 Introduction统一的目标检测框架YOLO v1网络架构损失函数的设计YOLO的缺陷比较性能总结论文链接:You Only Look Once: Unified, Real-Time Object Detection这次来讲解一下YOLO v1算法(CVPR2016的文章)。YOLO是目前比较流行的object detection算法,速度快且结构简单原创 2021-08-17 18:31:42 · 5326 阅读 · 8 评论 -
【论文泛读】 Faster R-CNN:利用RPN实现实时目标检测
【论文泛读】 Faster R-CNN:利用RPN实现实时目标检测文章目录【论文泛读】 Faster R-CNN:利用RPN实现实时目标检测前言摘要 Abstract介绍 Introduction相关工作 Related WorkFaster R-CNNRegion Proposal Networks 区域推荐网络锚点 Anchor平移不变性锚点损失函数 Loss Function训练RPNsFaster R-CNN的训练实验细节总结论文链接:Faster R-CNN: Towards Real-Tim原创 2021-07-31 01:03:48 · 5883 阅读 · 13 评论 -
目标检测相关论文和代码资源汇总
目标检测相关论文和代码资源汇总文章目录目标检测相关论文和代码资源汇总2014~2019模型汇总(红色为推荐必读篇):Performance table 性能表2014论文及代码2015论文及代码2016论文及代码2017论文及代码2018论文及代码2019论文及代码2020论文及代码Dataset Papers 常用的目标检测数据集2014~2019模型汇总(红色为推荐必读篇):Performance table 性能表FPS(Speed) index is related to the hard原创 2021-07-30 11:07:21 · 5374 阅读 · 5 评论 -
【论文泛读】 DenseNet:稠密连接的卷积网络
【论文泛读】 DenseNet:稠密连接的卷积网络文章目录【论文泛读】 DenseNet:稠密连接的卷积网络摘要 Abstract介绍 Introduction相关工作 Related WorkDenseNetResNet稠密连接(Dense connectivity)组合函数(Composite function)池化层(Pooling layers)增长速率(Growth rate)Bottleneck 层压缩 Compression实验细节 Implementation Details实验 Expe原创 2021-07-28 19:33:52 · 5715 阅读 · 5 评论 -
【论文泛读】 ResNet:深度残差网络
【论文泛读】 ResNet:深度残差网络文章目录【论文泛读】 ResNet:深度残差网络摘要 Abstract介绍 Introduction残差结构的提出残差结构的一些问题深度残差网络实验结果ResNet 的探究与先进的模型比较在CIFAR-10进行探究在PASCAL和MS COCO上的目标检测总结论文链接:[1512.03385] Deep Residual Learning for Image Recognition (arxiv.org)当大家还在惊叹 GoogLeNet 的 inception原创 2021-07-25 02:42:17 · 6210 阅读 · 0 评论 -
【论文泛读】 GooLeNet:更深的卷积网络
【论文泛读】 GooLeNet:更深的卷积网络文章目录【论文泛读】 GooLeNet:更深的卷积网络摘要 AbstractIntroduction 介绍动机和思考Inception 模型1x1卷积核 改进InceptionGoogLeNet训练策略ILSVRC 2014 设置和结果论文链接:Going deeper with convolutions摘要 Abstract我们在ImageNet大规模视觉识别挑战赛2014(ILSVRC14)上提出了一种代号为Inception的深度卷积神经网络结构,原创 2021-07-21 22:15:33 · 5434 阅读 · 0 评论