硬件加速
文章平均质量分 92
对DNN算法的硬件加速方案,包括算法优化和硬件实现
KGback
一个ICer的搬砖生涯
展开
-
【项目记录】大模型基于llama.cpp在Qemu-riscv64向量扩展指令下的部署
大模型基于llama.cpp在Qemu-riscv64向量扩展指令架构的模拟器上部署原创 2024-10-03 23:12:55 · 784 阅读 · 0 评论 -
【论文解析】基于开源 Matrix 指令集扩展(矢量点积)的高性能 RISC-V 处理器“香山”(nanhu 版本)的 LLM 加速的研究
新增矢量点积扩展指令集的的“香山”处理器的 LLM 加速的研究原创 2024-09-24 21:40:01 · 548 阅读 · 0 评论 -
【论文解析】Optimizing Attention by Exploiting Data Reuse on ARM Multi-core CPUs
Optimizing Attention by Exploiting Data Reuse on ARM Multi-core CPUs原创 2024-08-18 23:17:26 · 1052 阅读 · 0 评论 -
【论文解析】ELSA: Hardware-Software Co-design for Efficient, Lightweight Self-Attention Mechanism in NN
ELSA: Hardware-Software Co-design for Efficient, Lightweight Self-Attention Mechanism in NN原创 2024-09-01 21:40:02 · 808 阅读 · 0 评论 -
【论文解析】A3: Accelerating Attention Mechanisms in Neural Networks with Approximation
A3: Accelerating Attention Mechanisms in Neural Networks with Approximation原创 2024-07-05 21:00:55 · 993 阅读 · 0 评论 -
【论文解析】Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and Algorithm Co-design
Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and Algorithm Co-design原创 2024-07-06 22:14:25 · 890 阅读 · 0 评论 -
基于Transformer架构的LLM学习记录
大语言模型的学习记录原创 2024-07-01 09:44:42 · 1185 阅读 · 0 评论 -
【论文解析】基于脉动阵列的层融合注意力模型加速器结构
基于脉动阵列的层融合注意力模型加速器结构原创 2024-08-30 21:35:57 · 807 阅读 · 0 评论 -
【论文解析】Transformer 模型压缩算法研究及硬件加速器实现
Transformer 模型压缩算法研究及硬件加速器实现原创 2024-07-04 21:04:09 · 1240 阅读 · 1 评论 -
Transformer推理硬件专用加速器
当前大模型的基础架构正在向 Transformer 结构收敛,Transformer架构自谷歌2017年提出后比较稳定,因此针对Transformer的计算设计专用的ASIC加速器很有必要。原创 2024-08-26 22:45:51 · 1083 阅读 · 0 评论