- 博客(178)
- 资源 (7)
- 收藏
- 关注
原创 RDMA设计9:队列控制单元设计
摘要:本文介绍了RDMA队列控制单元的设计原理,该单元通过队列控制寄存器组(包含IP、MAC地址等信息)和队列操作状态寄存器实现队列的创建、删除及连接管理功能。文章强调该内容仅供学习参考,商用设计需进一步咨询,并提供了B站视频链接(BV1mPV5eCE8z)展示相关性能演示。完整设计思路详见作者130余篇博客文章。
2025-12-01 09:22:36
272
原创 RDMA设计8:状态管理单元设计
本文分享了设计思路交流,提供了一百多篇相关博文供初学者参考,但强调这些内容不能替代商用IP设计。文章重点介绍了状态管理单元的功能,包括读取物理链路和队列连接状态,并详细说明了状态管理寄存器组的定义(如表1所示)。其中物理链路状态寄存器、速率寄存器以及队列连接状态/类型寄存器分别反映了系统连接状态、握手速率和主机连接情况(最大支持8台主机)。如需了解NVME或RDMA产品需求,可观看B站相关性能视频(搜索用户"专注与守望")。
2025-12-01 09:18:18
319
原创 RDMA设计7:系统控制模块设计
摘要:本文介绍了RoCE v2高速数据传输系统中的核心控制模块设计。该模块包含状态管理、队列控制、指令控制和性能监测四大单元,通过AXI-Lite总线接口实现用户交互。系统采用寄存器组方式简化控制流程,支持DMA等功能管理,并提供链路状态监控。文章强调该内容仅为技术参考,商用IP设计需专业支持,并提供了相关视频资源链接。
2025-11-19 11:32:37
592
原创 RDMA设计6:IP架构2
本文介绍了高性能RoCE v2存储传输系统的核心模块架构,重点阐述了融合以太网协议栈、以太网协议栈和CMAC集成块三大功能模块。其中,融合以太网协议栈实现RoCE v2指令转换和队列管理功能;以太网协议栈负责网络包解析/封装及流量控制;CMAC集成块则提供物理层连接支持。文章强调该系统已在实际项目中验证性能,并建议读者参考B站相关视频获取更详细信息。所有技术内容仅作为学习参考,商用设计需进一步专业支持。
2025-11-19 11:29:24
530
原创 RDMA设计5:IP架构
本文介绍了基于RoCE v2技术的高速数据传输IP设计,重点阐述了系统架构和功能模块。系统通过QSFP28、AXI-Lite和AXI4接口实现数据传输与控制,内部包含系统控制、协议栈等核心模块。系统控制模块集成了RDMA建链、队列管理等功能,通过AXI-Lite接口简化用户集成。作者强调本文仅为技术参考,商用设计需进一步了解,并提供了B站视频作为补充说明。文章附带系统架构图和视频链接,供读者深入学习。
2025-11-18 08:18:05
656
原创 RDMA设计4:技术需求分析2
摘要:本文介绍了一种基于FPGA的RoCE v2 IP设计方案,支持IBTA 1.5协议规范,采用Xilinx CMAC集成块和独立UDP/IP协议栈。该设计特点包括纯逻辑电路开发、AXI总线接口、多队列并行管理以及DMA传输功能,支持最高8个QP和8192总队列深度。设计方案已通过B站视频展示性能表现,适用于高速数据传输应用场景。
2025-11-18 08:10:20
206
原创 RDMA设计3:技术需求分析1
摘要:本文提出一种基于FPGA的RDMA IP设计方案,适用于高速射频信号数据采集场景。该设计采用纯逻辑电路实现,具备通用性(支持多型号FPGA和独立运行)、高性能(支持256MB连续数据90Gbps传输、4KB包10μs延迟)和易集成等特点,可满足复杂数据环境下的多路传输需求。设计包含完备的队列管理及拥塞处理功能,支持QSFP28光纤接口,并提供标准化接口和DMA功能。相关性能视频已在B站发布。
2025-11-18 08:05:09
290
原创 RDMA设计2:开发必要性之性能简介
本文分享高性能RDMA存储与传输技术研究,展示优化后的IP设计性能指标与资源占用情况(附测试数据图)。作者已发布100多篇RDMA相关博文供初学者参考,但强调不可直接用于商用设计。如需NVMe/RDMA产品或项目合作,可观看B站视频("专注与守望"账号)后联系。文中提供了三组关键性能数据图表,并附B站视频链接供详细了解技术细节。
2025-11-17 08:27:19
187
原创 RDMA设计1:开发必要性1之设计考虑
远程直接内存访问技术(RDMA) 是一种专为远距离网络通信设计的技术, 其通常通过光纤进行设备间连接, 提供高通量、 低延迟、 远距离的零拷⻉网络数据传输。因此, 该协议是数据采集系统拓展传输方式的最佳选择, 适应 FPGA 应用的的 RDMAover RoCE v2 IP 可以确保以上场景下发挥出最优性能。为了满足大批量数据的采集、 存储与传输需求, 如机器学习、 雷达、 ⾦融⻛控、 航空航天等, 如何在 FPGA 上实现高带宽、 低延时的数据传输以解决 FPGA 系统存储容量不足已成为亟待解决的问题。
2025-11-17 08:18:25
805
原创 NVMe高速传输之摆脱XDMA设计69:心得
本文分享了69篇NVMe IP及40余篇相关博文的设计经验,主要介绍:(1)NVMe固态硬盘在数据采样前端的可行性分析及FPGA设计需求;(2)PCIe、NVMe、AXI协议关键技术解析;(3)NVMe高速传输架构设计,包含控制、初始化、NVMe控制、PCIe加速等模块实现;(4)UVM验证平台搭建及功能验证方法。作者在B站分享了性能演示视频,更多详情可搜索用户"专注与守望"查看。本系列文章旨在为初学者提供设计参考,但需注意不可直接用于商用IP开发。
2025-10-31 08:14:22
785
原创 NVMe高速传输之摆脱XDMA设计68:性能测试结果与分析:延迟性能分析
本文测试了三种固态硬盘的读写延迟性能,结果显示970EVO Plus在DirectNVM下实现3倍延迟降低,而NoP引擎相较Linux基线测试也实现了18.9%-32.88%的延迟优化。所有测试数据均满足项目要求的1ms延迟阈值。在IOPS和吞吐量方面,NoP引擎相较官方数据最高提升31.24%,并实现98%的手册性能。文末提供B站视频链接(https://space.bilibili.com/585132944)供进一步了解。
2025-10-31 08:06:19
198
原创 NVMe高速传输之摆脱XDMA设计67:性能测试结果与分析:延迟性能测试
本文分析了存储系统延迟性能,通过测试970EVO Plus、970PRO和A2000固态硬盘的4KB随机读写延迟,发现延迟随队列深度和数量增加而上升。当队列较小时,SSD能快速处理指令;队列增大时,指令排队时间增加导致延迟升高。实验数据以图表形式展示,完整测试视频可在B站查看。本文为设计思路交流,更多技术细节请参考作者博客或联系咨询商用IP设计。
2025-10-30 17:41:07
492
原创 NVMe高速传输之摆脱XDMA设计66:性能测试结果与分析:吞吐量性能分析2
本文介绍了一种NVMe逻辑加速引擎的性能测试结果。测试数据显示,该引擎在970EVO Plus和970PRO硬盘上的写入吞吐量达到厂商标称数据的98%以上,读取吞吐量可达90%左右。与Design Gateway专业IP相比,本方案实现了更高的顺序写入性能,可满足2GB/s的读写需求。相关性能视频已在B站发布,欢迎进一步了解。本文旨在分享设计思路,完整商用IP开发仍需更多考量。
2025-10-30 17:36:25
336
原创 NVMe高速传输之摆脱XDMA设计65:性能测试结果与分析:吞吐量性能分析1
本文分析了三款SSD硬盘(970EVO Plus、970PRO、A2000)的读写性能测试数据。测试显示,写吞吐量方面,970EVO Plus在8GB后速度明显下降,970PRO在64GB后缓慢降速,而A2000保持稳定。读吞吐量则都保持稳定速率。性能差异主要源于存储介质、主控和缓存设计的区别。文章还提供了B站视频链接(https://space.bilibili.com/585132944),供读者进一步了解产品性能。
2025-10-30 17:33:44
180
原创 NVMe高速传输之摆脱XDMA设计64:性能测试结果与分析:吞吐量性能测试
本文分享存储系统设计思路,提供百篇博文供初学者参考(不可直接商用)。重点分析NVMe SSD的吞吐量性能,通过1GB-256GB顺序读写测试显示:吞吐量主要受数据量影响,与队列参数关系较小。测试采用250GB的970EVO Plus,256GB结果为全盘读写数据。附读写吞吐量曲线图,更多性能视频可访问B站主页(专注与守望)查看。强调本文仅作技术交流,实际项目需求需进一步联系。
2025-10-27 08:41:58
407
原创 NVMe高速传输之摆脱XDMA设计63:性能测试结果与分析: SSD IOPS 饱和对应的队列数量和深度
本文对比了三种SSD型号在NoP逻辑加速引擎下的性能表现。测试数据显示,当队列数量达到16、队列深度32时,固态硬盘可实现最佳IOPS性能。其中970EVO Plus和970PRO的写IOPS均超过50万,满足项目需求,而A2000因性能限制未达标。文中还提供了性能测试数据对比表,并建议查看B站相关视频获取更多信息。该研究为SSD性能优化提供了参考,但指出商用设计需更多考量。
2025-10-27 08:38:18
307
原创 NVMe高速传输之摆脱XDMA设计62:性能测试结果与分析:IOPS 性能测试
本文分享了SSD性能测试方法,重点测试了三星970EVO Plus、970PRO和金士顿A1000三款SSD在不同队列配置下的4KB随机读写IOPS性能。测试结果表明,随着队列数量和深度的增加,SSD的IOPS性能会迅速达到饱和状态。文中展示了三款产品的具体测试数据图表,并提示读者这只是设计思路交流,商用IP设计需更专业指导。如需NVME或RDMA相关产品支持,可参考作者B站视频进一步了解(用户:专注与守望)。
2025-10-24 18:05:03
707
原创 NVMe高速传输之摆脱XDMA设计61:测试DMA 功能
本文介绍了DMA读写功能的实际环境测试过程,通过NVMe SSD与DDR间的数据传输验证功能。测试首先初始化DDR数据,通过DMA写入SSD后再读取到另一DDR区域,最终对比数据一致性确认功能实现。测试结果显示4KB数据传输成功,验证了设计预期。作者在B站(用户:专注与守望)分享了相关性能视频,并提醒本文仅供学习参考,商用IP设计需进一步咨询。
2025-10-24 17:59:28
206
原创 NVMe高速传输之摆脱XDMA设计60:如何测试队列管理功能3
本文分享了NVMe队列管理测试结果,展示了队列创建和删除的操作流程及错误处理机制。测试验证了正确的操作顺序(先完成队列后提交队列),并捕获了两种错误情况:队列未创建时的操作顺序错误(错误码8)和队列已关闭时的重复删除请求(错误码2)。文章指出这些内容仅供学习参考,实际商用IP设计需更多考量,并引导读者通过B站视频(用户"专注与守望")获取更详细的性能演示信息。
2025-10-23 10:57:21
212
原创 NVMe高速传输之摆脱XDMA设计59:如何测试队列管理功能
本文介绍了NVME/RDMA队列管理的测试过程,重点验证了队列创建、删除功能及管理边界。测试显示:1)队列深度超过1023时返回错误;2)队列数量达到上限(16个)时创建失败;3)详细错误代码帮助用户调整参数。作者提醒,本文仅为技术分享,商用开发需更多支持,建议通过B站视频(用户"专注与守望")或直接联系获取完整方案。文中配有测试过程的串口打印截图,展示了具体的错误返回情况。
2025-10-23 10:53:56
537
原创 NVMe高速传输之摆脱XDMA设计58:主要功能测试结果与分析4(NVMe 指令提交与完成机制测试)
本文分享了NVMe设计思路,展示了写完成队列的测试波形。当NVMe设备通过axis_cq接口发起写TLP请求时,NoP逻辑加速引擎正确响应并完成指令交互,验证了初始化功能的正确性。文中强调这些内容仅供学习参考,如需商用IP设计或NVMe/RDMA项目支持,建议观看B站相关视频后联系作者。博文已在博客发布90余篇设计文章,为初学者提供参考。
2025-10-23 10:48:27
366
原创 NVMe高速传输之摆脱XDMA设计57:主要功能测试结果与分析3(NVMe 指令提交与完成机制测试)
本文介绍了NVMe逻辑加速引擎的初始化测试过程,通过配置队列控制寄存器创建I/O完成队列,验证了指令提交与完成机制。文章详细描述了寄存器配置波形(图1)和NVMe设备读取指令请求的交互过程(图2),展示了Admin提交队列的门铃更新和64B指令条目的返回。作者提醒本文仅作设计思路参考,如需商用IP设计或NVMe/RDMA项目支持,建议观看B站相关性能视频后联系(用户:专注与守望)。
2025-10-22 10:07:54
390
原创 NVMe高速传输之摆脱XDMA设计56: 主要功能测试结果与分析2(NVMe初始化)
本文分享了NVMe初始化过程的设计思路,包括硬件加电、链路训练、队列配置等关键步骤。通过两幅信号波形图展示了初始化启动(状态值跳变至3)和完成(状态值跳变至5,寄存器值为7)时的具体信号变化。作者提示本文仅为技术交流,商用IP设计需更多专业支持,并推荐观看B站相关测试视频获取更详细信息(用户:专注与守望)。文中附有90余篇相关博文链接供初学者参考。
2025-10-22 10:02:48
313
原创 NVMe高速传输之摆脱XDMA设计55: 主要功能测试结果与分析1
本文分享了PCIe初始化功能测试的设计思路,通过状态寄存器和波形图展示了链路训练及初始化过程。系统上电后,PCIE模块在百毫秒内完成链路训练,状态寄存器值变化(1→3)反映初始化进度。文中提供了相关博文和B站视频资源,但强调这些仅作为入门参考,不能替代商用IP设计。对于NVME或RDMA项目需求,建议观看视频后联系作者进一步交流。
2025-10-15 07:45:44
689
原创 NVMe高速传输之摆脱XDMA设计54: 核心测试内容
本文分享NVMe/RDMA设计思路及性能测试方法,包含90多篇博文供初学者参考。重点介绍了IOPS、吞吐量和延迟三大关键指标的测试方案:IOPS测试通过随机4KB读写和计时器统计;吞吐量测试采用不同DMA传输长度;延迟测试结合IOPS程序获取平均及TP99延迟数据。作者强调本文仅作技术交流,商用设计需更深入探讨,并提供了B站视频链接(用户:专注与守望)展示实测性能。
2025-10-15 07:41:23
274
原创 NVMe高速传输之摆脱XDMA设计53: 选择测试环境软件平台
本文介绍了NVMe性能测试的设计思路,重点讲解了4KB随机读写IOPS测试程序的执行流程。作者使用Vivado2019.1配套SDK搭建测试平台,详细说明了DMA寄存器配置、计时程序运行等关键步骤,并强调了队列数量和深度对性能的影响。文中提供了测试流程图和B站视频链接(用户:专注与守望),但提醒读者这些内容仅作为设计参考,不能替代商用IP开发。适合初学者了解NVMe性能测试方法,有项目需求者可联系作者进一步沟通。
2025-10-14 17:45:23
189
原创 NVMe高速传输之摆脱XDMA设计52: 上板资源占用率分析
本文介绍了NoP逻辑加速引擎在FPGA平台上的实现方案。实验采用ZCU106和VC709开发板进行测试,资源占用率数据表明该设计具有较高的集成度。硬件连接通过FMC to M.2适配器实现SSD与FPGA的连接,并提供了实物连接图示。相关性能测试视频已在B站发布,作者建议初学者参考博客内容,但强调不能直接用于商用IP设计。对于NVME或RDMA产品需求,可通过B站联系方式进一步沟通。
2025-10-14 17:39:33
423
原创 NVMe高速传输之摆脱XDMA设计51:工程设计考量
本文介绍了基于VC709和ZCU106 FPGA的Block Design工程设计方案。核心设计采用Xilinx提供的Microblaze/ZYNQ处理器,通过AXI总线连接串口IP、NoP加速引擎和DDR控制器等模块,实现数据存储与传输功能。其中NoPHAE模块包含控制总线和数据总线接口,PCIe接口用于外部连接。工程还包含总线信号调试模块,便于开发测试。作者提醒设计方案仅作参考,商用开发需进一步验证,并提供了B站视频链接(用户:专注与守望)供详细了解性能表现。
2025-10-14 17:32:49
386
原创 NVMe高速传输之摆脱XDMA设计50: 如何上板验证?
本文介绍了NVMe over PCIe逻辑加速引擎的设计与测试方案。该IP基于Xilinx PCIe集成块开发,已在VC709和ZCU106两种FPGA开发板上完成硬件验证,适配三星970EVO Plus/PRO及金士顿A2000等多款SSD。测试工程采用Vivado2019.1封装IP核,主要包含控制AXI、数据AXI、PCIe接口及可配置参数。作者在B站发布了相关性能演示视频(用户:专注与守望),并强调本文仅作设计思路分享,商用开发需进一步联系。
2025-10-13 16:27:35
498
原创 NVMe高速传输之摆脱XDMA设计49:DMA 读写功能验证与分析2
本文介绍了DMA写功能测试过程,重点分析了NVMe设备的数据读写操作。测试通过AXI总线将BRAM数据写入NVMe设备第8个逻辑块(偏移4KB),波形图展示了DMA写请求的仿真结果。数据对比图显示目标区域数据被成功更新,验证了设计功能。作者提示博客提供90多篇相关设计文章,但强调不能直接用于商用IP开发。文末附有B站性能演示视频链接,供读者进一步了解细节。该测试表明DMA写操作符合预期,为NVMe存储开发提供了参考。
2025-10-13 16:22:32
175
原创 NVMe高速传输之摆脱XDMA设计48:DMA 读写功能验证与分析
本文介绍了NVMe设计中的DMA读写功能验证方法,重点展示了4KB数据传输测试案例。通过配置DMA寄存器组,系统将请求转换为NVMe指令,经PCIe模块处理后将数据写入BRAM模型。测试结果显示数据传输量与预期一致,存储数据比对验证了功能正确性。文中提供了测试波形图、存储数据对比图及B站视频链接(用户:专注与守望),供读者进一步了解。作者强调本文仅为技术交流,不可直接用于商用IP设计。
2025-10-10 16:11:33
902
原创 NVMe高速传输之摆脱XDMA设计47:队列管理功能验证与分析5
本文分享了NVMe设计相关的测试结果,包含删除队列边界测试和操作顺序测试。测试结果显示:第一次删除队列成功,后续操作返回数量错误;未创建完成队列时直接创建提交队列会报顺序错误;删除提交队列前未处理完成队列也会报顺序错误。所有测试结果均符合预期,验证了设计的正确性。作者在博客和B站(用户:专注与守望)分享了90多篇相关技术文章和视频,供初学者参考学习,但强调这些内容不能直接用于商用IP设计。
2025-10-10 16:06:06
239
原创 NVMe高速传输之摆脱XDMA设计46:队列管理功能验证与分析4
本文介绍了NVMe删除队列的功能测试结果,通过协议命令成功移除了I/O提交队列和完成队列,释放了设备资源。测试显示关键信号值均为0,队列信息被清空,仿真结果符合预期。作者已在博客发布90多篇相关文章(仅供参考学习),并提供了B站视频链接供进一步了解。注意:本文内容不可直接用于商用IP设计。
2025-10-09 10:54:38
227
原创 NVMe高速传输之摆脱XDMA设计45:队列管理功能验证与分析3
本文介绍了NVMe设计测试中的队列创建边界测试情况。测试结果显示:当尝试创建深度为1024的I/O提交队列时(最大支持1023),系统正确返回创建深度错误状态;在连续创建16个I/O提交队列时(已达到最大数量限制),系统返回数量错误且不再生成NVMe指令,均符合设计预期。相关测试波形图和性能视频已发布在CSDN博客和B站(用户:专注与守望)。本文仅供学习参考,不可直接用于商用IP设计。
2025-10-09 10:39:48
198
原创 NVMe高速传输之摆脱XDMA设计44:队列管理功能验证与分析2
本文分享了NVMe设计的相关经验,包含50余篇博文内容。通过两个测试案例展示了NVMe队列创建功能验证:1)队列深度超过1023时返回错误状态4;2)I/O完成队列数量超限时返回错误状态2。测试波形图直观展示了验证结果,所有测试均符合预期。作者在B站(用户:专注与守望)提供了相关性能视频作为补充学习资料。文章强调这些内容仅为技术交流,不可直接用于商用IP设计。
2025-10-09 10:33:44
451
原创 NVMe高速传输之摆脱XDMA设计43:队列管理功能验证与分析1
摘要:本文测试了NVMe队列管理功能,包括创建/删除队列、队列边界等操作。测试设计支持最大16个提交队列,单队列深度1023条。通过波形分析验证了队列创建流程:配置寄存器后,模块判定创建状态并生成NVMe命令写入Admin队列。测试结果与详细步骤可参考文内图表,更多性能演示参见B站视频(用户:专注与守望)。该验证为NVMe设备队列管理功能的实现提供了测试依据。
2025-10-08 16:41:16
485
原创 NVMe高速传输之摆脱XDMA设计42:NVMe 指令提交与完成机制验证与分析4
本文展示了NVMe指令处理和完成队列门铃请求的测试结果。在指令处理测试中,通过axis接口获取指令后,设备成功执行操作并写入完成条目(cq_wdata=1),更新了Admin提交队列头门铃(asq_head=1)。完成队列门铃测试显示,处理完成后acq_h信号跳变,成功发起门铃请求(acq_db_req),并通过总线发送写请求(地址0xB0001004,数据1)。两个测试的仿真波形均符合预期,验证了功能正确性。更多性能详情可参考B站相关视频(用户:专注与守望)。
2025-10-08 16:23:24
266
原创 NVMe高速传输之摆脱XDMA设计41:NVMe 指令提交与完成机制验证与分析3
摘要:NVMe提交指令通过提交队列传输数据,其性能受IP处理速度和FPGA缓存能力制约。测试显示,设备成功接收门铃写请求并通过axis_cq接口发起读指令,正确读取Admin队列起始地址数据后经axis_cc接口返回,验证了设计功能。仿真波形(图1)证实响应符合预期。更多性能详情可参考B站用户"专注与守望"的相关视频。
2025-09-26 08:06:19
191
原创 NVMe高速传输之摆脱XDMA设计40:NVMe 指令提交与完成机制验证与分析2
本文验证了NVMe指令组装与队列门铃请求功能。测试结果显示:1)队列管理模块能正确组装64B的NVMe指令并写入Admin提交队列,指令字段内容符合预期;2)当提交队列写入指令后,系统能正确触发门铃请求,通过总线发送0xB0001000地址的写请求数据1。两项测试波形均符合设计预期,验证通过。详细测试过程可通过B站"专注与守望"主页查看相关演示视频。
2025-09-26 07:57:47
300
原创 NVMe高速传输之摆脱XDMA设计39:NVMe 指令提交与完成机制验证与分析
NVMe 指令提交与完成机制是 NVMe 协议的核心机制, 也是待测设计需要实现的重要机制之一。对该机制的验证需要考察待测设计是否能够正常执行指令的组装、分配、 正确的请求配置门铃、 响应提交指令的获取、 正确处理完成指令等。链接:https://space.bilibili.com/585132944/dynamic?B站已给出相关性能的视频,如想进一步了解,请搜索B站用户:专注与守望。
2025-09-25 14:40:12
561
NVMe1.3c协议,便于理解和研究高速传输新技术
2018-11-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅