一文看尽2024年11种主流注意力机制

注意力机制已经成了模型设计的基础架构,现在模型里没个Attention都不好意思发出来。

从注意力机制发布到今天,学术界一直在对Attention进行各种魔改。魔改后的Attention能够提升模型的表达能力增强跨模态能力和可解释性,以及优化模型大小与效率

最重要的一点,很多注意力模块都是即插即用的。我们可以在自己的模型里用学术大牛的注意力模块,这样再做实验写论文绝对是事半功倍了。

近期,包括缩放点积注意力、多头注意力、交叉注意力、空间注意力、通道注意力等在内的11种主流注意力机制都有许多创新研究。今天分享112个11种主流注意力机制的创新研究,最新更新到24年9月。最新的创新思路非常适合大家用在实验中!

112个11种主流注意力机制的创新研究,paper和代码都帮大家下载整理好了。欢迎扫码领取。

bbe133b4debfb6b9747b88af8226bad4.png

扫码领112个11种主流注意力机制

创新研究paper和代码

9c2b0bcd413851d0cef0004ff1f00d16.jpeg

缩放点积注意力

  • 5.Sep.2024—LMLT:Low-to-high Multi-Level Vision Transformer for Image Super-Resolution

  • 4.Sep.2024—MobileUNETR:A Lightweight End-To-End Hybrid Vision Transformer For Efficient Medical Image Segmentation

  • 4.Sep.2024—More is More Addition Bias in Large Language Models

  • 4.Sep.2024—LongLLaVA:Scaling Multi-modal LLMs to 1000 Images Efficiently via Hybrid Architecture

......

b6e5fe933cf2d2e46622c57e77392644.jpeg

acaf5945328d3bcb1af75516766c8eb9.png

扫码领112个11种主流注意力机制

创新研究paper和代码

多头注意力

  • 4.Sep.2024—Multi-Head Attention Residual Unfolded Network for Model-Based Pansharpening

  • 30.Aug.2024—From Text to Emotion: Unveiling the Emotion Annotation Capabilities of LLMs

  • 25.Jun.2024—Temporal-Channel Modeling in Multi-head Self-Attention for Synthetic Speech Detection

  • 14.May.2024—Improving Transformers with Dynamically Composable Multi-Head Attention

......

329504e831bbc3b47ca88e2b325bf6a4.jpeg

f9d1b88945dcef8e7a8ab8aa8402926e.png

扫码领112个11种主流注意力机制

创新研究paper和代码

步幅注意力

  • 25.Aug.2024—Vision-Language and Large Language Model Performance in Gastroenterology: GPT, Claude, Llama, Phi, Mistral, Gemma, and Quantized Models

  • 21.Aug.2024—Unlocking Adversarial Suffix Optimization Without Affirmative Phrases: Efficient Black-box Jailbreaking via LLM as Optimizer

  • 16.Aug.2024—Fine-tuning LLMs for Autonomous Spacecraft Control: A Case Study Using Kerbal Space Program

  • 15.Aug.2024—FuseChat Knowledge Fusion of Chat Models

......

a0170af27d488ea13dd9863068189e69.jpeg

3548f2dc5770e5b9faecb0ec4aba30a7.png

扫码领112个11种主流注意力机制

创新研究paper和代码

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值