自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 DDR分享之LPDDR5X:4初始化和训练-4.2训练-1

DDR;LRDDR5X;LPDDR5;DDR协议

2024-01-03 23:58:00 1095 1

原创 DDR分享之LPDDR5X:4初始化和训练-4.1上电、初始化和下电流程-2

本系列是lpddr5x spec的分享。spec版本:JESD209-5B。

2024-01-03 00:45:14 565 1

原创 DDR分享之LPDDR5X:4初始化和训练-4.1上电、初始化和下电流程-1

LPDDR5X

2023-12-29 03:34:12 652 1

原创 Transformer硬件实现第三篇:Pytorch基础知识补充(2)

该篇文章是训练Transformer前的pytorch的知识补充。感谢博主莫凡Python的视频课程https://www.youtube.com/watch?v=lAaCeiqE6CE&feature=emb_title,其主页是:莫烦Python建议直接观看该博主视频教程完成pytorch的知识补充。也可走马观花浏览我的文字记录。前言接上篇文章,这是Pytorch知识补充的最后一篇文章。这几部分内容是之后训练Transformer及硬件设计所需要的,涵盖:如何搭建网络模型 保存

2021-10-13 03:06:01 885 2

原创 Transformer硬件实现第二篇:Pytorch基础知识补充(1)

该篇文章是训练Transformer前的pytorch的知识补充。感谢博主莫凡Python的视频课程https://www.youtube.com/watch?v=lAaCeiqE6CE&feature=emb_title,其主页是:莫烦Python建议直接观看该博主视频教程完成pytorch的知识补充。也可走马观花浏览我的文字记录。对于Transformer硬件加速器算法与电路协同设计,算法训练必不可少,故在训练前温习Pytorch知识,对视频教程进行文字整理及总结,作为学习交流使用。

2021-10-12 02:31:30 736

原创 Transformer硬件实现第一篇:算法结构拆解

实现Transformer硬件加速器,首先需要理解算法的各个计算单元。顶层结构Transformer本质是一个Encoder和Decoder模型。Encoder和Decoder各包含6个block。对1个block,结构如下:1.数据送入self-attention模块,得到加权的特征向量Z,即2.得到的结果Z送入二层前馈网络层,第一层为ReLU,第二层为全连接层。一与二步骤完成Encoder的计算,现在将得到的结果送入Decoder。Decoder由Self-attention + .

2021-10-11 01:45:39 3527

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除