每日学术速递5.16

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理  

Subjects: cs.CV

1.Locally Attentional SDF Diffusion for Controllable 3D Shape Generation

标题:用于可控 3D 形状生成的局部注意 SDF 扩散

作者:Xin-Yang Zheng, Hao Pan, Peng-Shuai Wang, Xin Tong, Yang Liu, Heung-Yeung Shum

文章链接:https://arxiv.org/abs/2305.04461

项目代码:https://zhengxinyang.github.io/projects/LAS-Diffusion.html

摘要:

        虽然最近 3D 生成神经网络的快速发展大大提高了 3D 形状的生成,但普通用户仍然不方便创建 3D 形状和控制生成形状的局部几何形状。为了应对这些挑战,我们提出了一个基于扩散的 3D 生成框架——局部注意力 SDF 扩散,通过 2D 草图图像输入来模拟合理的 3D 形状。我们的方法建立在两阶段扩散模型之上。第一阶段称为占用扩散,旨在生成一个低分辨率的占用场来近似形状壳。第二阶段,称为 SDF 扩散,在第一阶段确定的占用体素内合成高分辨率符号距离场,以提取精细几何形状。我们的模型由一种用于图像条件形状生成的新型视图感知局部注意机制提供支持,该机制利用 2D 图像块特征来指导 3D 体素特征学习,极大地提高了局部可控性和模型的通用性。通过在草图条件和类别条件 3D 形状生成任务中进行大量实验,我们验证并展示了我们的方法提供合理且多样化的 3D 形状的能力,以及其优于现有工作的可控性和普遍性。我们的代码和经过训练的模型可在此 https URL 上获得

2.EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention

标题:EfficientViT:具有级联组注意力的高效内存视觉转换器

作者:Xinyu Liu, Houwen Peng, Ningxin Zheng, Yuqing Yang, Han Hu, Yixuan Yuan

文章链接:https://arxiv.org/abs/2305.07027

项目代码:https://github.com/microsoft/Cream/tree/main/EfficientViT

摘要:

        视觉转换器因其高模型能力而取得了巨大的成功。然而,它们卓越的性能伴随着沉重的计算成本,这使得它们不适合实时应用。在本文中,我们提出了一个名为 EfficientViT 的高速视觉转换器系列。我们发现现有 Transformer 模型的速度通常受内存低效操作的限制,尤其是 MHSA 中的张量重塑和逐元素函数。因此,我们设计了一种具有三明治布局的新构建块,即在高效 FFN 层之间使用单个内存绑定 MHSA,从而提高内存效率,同时增强通道通信。此外,我们发现注意力图在头部之间具有高度相似性,从而导致计算冗余。为了解决这个问题,我们提出了一个级联的组注意力模块,为注意力头提供不同的完整特征分割,这不仅节省了计算成本,而且提高了注意力的多样性。综合实验表明 EfficientViT 优于现有的高效模型,在速度和准确性之间取得了良好的平衡。例如,我们的 EfficientViT-M5 在精度上比 MobileNetV3-Large 高出 1.9%,同时在 Nvidia V100 GPU 和英特尔至强 CPU 上的吞吐量分别高出 40.4% 和 45.2%。与最近的高效模型 MobileViT-XXS 相比,EfficientViT-M2 的精度提高了 1.8%,同时在 GPU/CPU 上的运行速度提高了 5.8 倍/3.7 倍,转换为 ONNX 格式时速度提高了 7.4 倍。此 https URL 上提供了代码和模型。

3.The emergence of clusters in self-attention dynamics

标题:自注意力动力学中集群的出现

作者:Borjan Geshkovski, Cyril Letrouit, Yury Polyanskiy, Philippe Rigollet

文章链接:https://arxiv.org/abs/2304.05977

摘要:

        将变形金刚视为相互作用的粒子系统,当权重不依赖于时间时,我们描述了学习表示的几何形状。我们表明,随着时间趋于无穷大,代表标记的粒子倾向于聚集到特定的限制对象。出现的限制对象的类型取决于值矩阵的范围。此外,在一维情况下,我们证明自注意力矩阵收敛到低秩布尔矩阵。这些结果的组合在数学上证实了 Vaswani 等人所做的经验观察。在 Transformers 处理时出现在一系列标记中。

更多Ai资讯:公主号AiCharm
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AiCharm

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值