![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文共读
文章平均质量分 67
comedate
这个作者很懒,什么都没留下…
展开
-
[论文共读][翻译][CycleGAN] Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
图像到图像转换是一类视觉和图形问题,其目标是使用一组对齐的图像对的训练来学习输入图像和输出图像之间的映射。但是,对于许多任务,配对训练数据将不可用。我们提出了一种学习方法,用于在没有配对样本的情况下将图像从源域 X 转换为目标域 Y。我们的目标是学习 G : X → Y 的映射,使得 G(X) 的图像分布与使用对抗损失的分布 Y 无法区分。由于这种映射受到高度欠限,我们将其与反向映射 F : Y → X 耦合,并引入周期一致性损失以强制 F(G(X)) ≈ X(反之亦然)。原创 2024-07-29 11:20:44 · 618 阅读 · 0 评论 -
【论文共读】【翻译】【GPT】Improving Language Understanding by Generative Pre-Training
自然语言理解包括各种不同的任务,例如文本蕴涵、问答、语义相似性评估和文档分类。尽管大量未标记的文本语料库很丰富,但用于学习这些特定任务的标记数据很少,这使得判别性训练的模型难以充分执行。我们证明,通过对各种未标记文本语料库进行语言模型的生成预训练,然后对每个特定任务进行判别性微调,可以实现这些任务的巨大收益。与之前的方法相比,我们在微调过程中利用任务感知的输入转换来实现有效的传输,同时需要对模型架构进行最少的更改。我们在自然语言理解的广泛基准上证明了我们的方法的有效性。原创 2024-07-26 12:40:37 · 1135 阅读 · 0 评论 -
[论文共读][翻译][BERT][Pre-training of Deep Bidirectional Transformers for Language Understanding]
介绍了一种新的语言表示模型BERT,即Bidirectional Encoder Representations from Transformers。与最近的语言表示模型不同(Peters et al., 2018a;Radford et al., 2018),BERT 旨在通过在所有层中共同调节左右上下文来预训练来自未标记文本的深度双向表示。因此,预训练的 BERT 模型只需一个额外的输出层即可进行微调,从而为各种任务(例如问答和语言推理)创建最先进的模型,而无需对特定任务的架构进行大量修改。原创 2024-07-24 12:43:38 · 990 阅读 · 0 评论 -
[论文共读][翻译][ViT][Transformers for image recongnition at scale]
对 ViT 论文的全文翻译虽然 Transformer 架构已成为自然语言处理任务的事实标准,但它在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构不变。我们发现,这种对CNN的依赖是不必要的,直接应用于图像补丁序列的纯转换器可以在图像分类任务中表现出色。原创 2024-07-24 07:45:00 · 2010 阅读 · 0 评论 -
[论文共读][翻译][Transformer][Attension is All You Need]
Attention is all you need!显性序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全省去了递归和卷积。对两个机器翻译任务的实验表明,这些模型在质量上更出色,同时具有更高的可并行化性,并且需要更少的训练时间。我们的模型在 WMT 2014 英语到德语翻译任务中实现了 28.4 BLEU,比现有的最佳结果(包括集成)提高了 2 BLEU 以上。原创 2024-07-23 13:03:48 · 918 阅读 · 0 评论 -
【论文共读】【翻译】ShuffleNet v1:一种用于移动设备的极其高效的卷积神经网络
Shuffle Net V1 文章的翻译原创 2024-07-19 13:14:01 · 544 阅读 · 0 评论 -
[CGAL] Mesh Deformation with CGAL
Papers Documents Codes about mesh deformation in CGAL原创 2023-05-17 22:01:59 · 242 阅读 · 0 评论 -
[JHU] The Poisson Equation in Image & Shape Processing
[JHU] The Poisson Equation in Image & Shape Processinghttps://www.cs.jhu.edu/~misha/Fall07/原创 2022-05-05 13:57:16 · 184 阅读 · 0 评论 -
[论文共读] Marching Cube 经典的文章
marching cube 最经典的文章:Lorensen W E, Cline H E. Marching cubes: A high resolution 3D surface construction algorithm. ACM SIGGRAPH Computer Graphics. 1987;21(4)原创 2022-02-28 21:41:36 · 768 阅读 · 0 评论 -
Pytorch CPU 训练 MNIST Dataset 例子
Pytorch CPU 训练 MNIST Dataset 例子1. 代码主要来源于:Source: https://github.com/pytorch/examples/注意:应为版本不一致的原因,会出现下面的报错信息:pytorch报错:IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python number是你的torch版本的不同造成的。解决:将原创 2021-09-30 22:47:52 · 273 阅读 · 0 评论 -
PIFuHD Demo 详细使用说明 以及复现
最近,Fackbook AI 研究出从一张图片生成Mesh模型的算法PIFuHD,非常好玩又实用。具体的代码,在Google Colab 上的有Demo。考虑到广大的筒子们都不能FQ, 所以,我在Colab上验证通过后,精简了一下复现的过程。原创 2021-02-14 21:48:35 · 7232 阅读 · 15 评论 -
[AI 论文共读] Monocular Real-Time Volumetric Performance Capture
论文地址:Monocular Real-Time Volumetric Performance Capture论文在B站的PPT讲解:PPT讲解github 相关的代码:MonoPortgithub 代码PIFuHD DemoPIFuHD Demo对于没有GPU的用户,可以使用 google colab,一天可以使用 GPU 大约 12 小时。如果使用 google colab, 可以参考如下教程:google colab 免费使用GPUExample 图片:..原创 2021-02-14 15:55:35 · 461 阅读 · 0 评论