- 博客(118)
- 收藏
- 关注
原创 显式拥塞通知(ECN)机制
显式拥塞通知(ECN)是一种通过标记而非丢弃数据包来实现拥塞控制的网络机制。它利用IP头部的2个标志位(ECT和CE)传递拥塞信号,接收端通过反馈机制通知发送端降速。ECN需端到端支持,适用于RoCE网络、数据中心等低延迟场景,其核心优势是避免重传延迟。ECN常与PFC协同部署,遵循"ECN预警+PFC兜底"原则,通过合理配置水位线阈值和标记比例实现精准控制。配置时需考虑网络设备缓冲区、链路带宽、业务特性等因素,并通过动态监控持续优化参数。
2025-12-11 15:45:00
665
原创 INT(In-band Network Telemetry,带内网络遥测)技术
INT技术通过数据报文嵌入实时网络状态信息,实现精准细粒度的网络监测。其核心优势在于微秒级延迟感知、<1%带宽开销,并能精确定位拥塞节点。概率性INT(PINT)通过概率采样和分布式协作进一步降低开销,同时保持监控精度。该技术结合AI分析,可支撑智算中心从被动拥塞处理转向主动流量适配,解决多场景流量动态切换难题。
2025-12-11 10:13:43
625
原创 面向RDMA网络的Swift协议
Swift是针对RDMA网络在弹性计算场景中的控制面优化方案。通过缓存优化和进程资源共享技术,Swift解决了RDMA与无服务器架构融合时的连接建立慢、资源共享难问题。其针对冷启动、热启动和fork启动三种任务场景,分别采用缓存预配置、资源复用和fork共享机制进行优化。实际测试显示,在AI推理集群中,Swift将控制面开销降至6.5%,吞吐量提升30%-46%,显著改善了RDMA在短生命周期任务场景中的性能表现。
2025-12-10 15:30:00
409
原创 智算中心RDMA网络传输控制技术
本文分析了智算中心RDMA网络的三种主流传输控制技术:DCQCN基于交换机ECN标记实现队列管理,TIMELY利用RTT延迟信号动态调整速率,HPCC则采用INT遥测实现精准控制。三种技术各具优势:DCQCN稳定性强但响应慢,TIMELY部署简单但依赖高精度硬件,HPCC控制精准但成本较高。当前RDMA传输控制仍面临动态适应性不足、跨场景兼容性有限等挑战,需进一步优化以满足智算中心高性能网络需求。
2025-12-10 09:45:00
836
原创 网络传输控制技术2-算力网传输技术(1)
DCTCP 的工作原理可概括为“ECN 早感知 + 平滑窗口调整 + 低队列控制”通过 ECN 机制实现 “不丢包的拥塞预判”,解决传统 TCP 反应滞后的问题;以拥塞标记比例(F)为核心,实现窗口的平滑调整,平衡吞吐量与延迟;最终将网络队列长度控制在极低水平,完美适配智算中心 “长流高吞吐、短流低延迟” 的混合需求,成为数据中心 / 智算中心传输控制的基础优化方案。
2025-12-09 14:00:00
1175
原创 网络传输控制技术1-互联网传输技术
本文系统阐述了网络传输控制技术的核心机制与应用场景。第一部分解析TCP/UDP协议的本质差异:TCP通过连接管理、确认重传等机制确保可靠传输,适用于文件下载等场景;UDP则凭借无连接特性实现低延迟,适配视频通话等实时业务。第二部分重点剖析TCP拥塞控制的四阶段动态调节机制:慢启动快速探测带宽、拥塞避免线性增长、快速重传及时补包、快速恢复平稳过渡,并通过CUBIC/BBR等优化算法适配不同网络环境。特别指出智算中心通过"UDP+RDMA硬件卸载"实现"低延迟+零丢包"的
2025-12-09 13:00:00
1854
原创 智算中心与RDMA网络
智算中心作为AI和数字经济的"超级大脑",通过分布式架构和高速网络整合算力资源,支撑深度学习等高性能计算需求。RDMA技术凭借零拷贝、低延迟特性成为核心传输方案,其中RoCEv2因兼容性和成本优势成为主流。国内外应用显示,该技术能显著提升GPU集群训练效率,但面临拥塞敏感等挑战。未来需优化传输控制技术,以支撑更大规模部署。智算中心建设正加速推进,为"东数西算"提供关键基础设施保障。
2025-12-09 07:00:00
666
原创 RDMA 操作中 PCIe TLP 数据包交互示例(以 RoCE 协议远程读操作为例)
摘要:RDMA通过三种PCIe事务层数据包(TLP)实现高效数据传输:读请求TLP(MRd)用于获取主机内存数据,读完成包TLP(CplD)返回读取结果,写请求TLP(MWr)直接写入内存且无需事务层响应。典型应用场景中,本地RNIC通过TLP读取配置信息,远程RNIC获取目标数据后通过网络传输,最终直接写入应用内存并更新完成队列。整个过程利用PCIe链路层保障可靠性,避免CPU干预,实现微秒级延迟的零拷贝传输,使其成为高性能计算和分布式存储的关键技术。
2025-12-08 14:30:00
739
原创 DMA(Direct Memory Access)技术解析:定义、原理、应用与核心价值
DMA(直接内存访问)是一种通过独立控制器实现外设与内存直接数据传输的硬件技术,能显著提升系统性能。其核心优势包括:1)解放CPU算力,仅需指令下发和中断响应;2)降低传输延迟至微秒级;3)提高总线利用率。典型应用场景涵盖网络设备(100G网卡)、存储设备(NVMe SSD)、显卡/AI加速卡等高频数据传输场景。与中断驱动I/O相比,DMA吞吐量可提升10倍以上,是现代高性能计算、网络通信和AI训练的关键支撑技术。
2025-12-08 09:45:00
890
原创 RFC8211:资源公钥基础设施(RPKI)中认证机构(CA)或存储库管理器的不良行为
RFC8211(2017年发布)从INR持有者视角分析了RPKI系统中6类不利行为(删除、抑制、破坏、修改、撤销、注入)对6种核心对象(CA证书、清单、CRL、ROA等)的影响。研究显示,外包CA与仓库的部署场景风险最高,可能引发路由劫持等安全问题。文档为RPKI安全机制设计提供了威胁模型参考,指出不利行为会导致路由验证错误或安全机制失效,但强调RPKI仍优于传统IRR技术。关键发现包括:CA证书影响范围最广,竞争ROA可能导致未授权路由,外包场景需加强安全审计和冗余设计。
2025-12-07 07:15:00
784
原创 对RPKI中验证的重新评估(2014)
摘要:本文重新评估了RPKI(资源公钥基础设施)验证机制,指出当前"资源完全包含"的层级验证模型存在严重脆弱性——上级证书资源不一致会导致下级所有证书失效,可能引发大规模路由故障。研究提出资源可分离验证方案,将证书资源视为独立单元进行验证,而非证书整体,同时探讨允许不同资源通过不同验证路径生效的扩展思路。该方案在保留RPKI核心框架前提下,将资源不一致的影响范围限定在单个资源,显著提升了系统鲁棒性,降低了运营风险,为RPKI部署提供了更优的验证机制。
2025-12-06 16:00:00
827
原创 RFC6811:BGP前缀源验证
RFC 6811定义了BGP前缀起源验证机制,基于RPKI体系的ROA数据转换为VRP(验证ROA负载),通过判断路由前缀是否被VRP覆盖及AS号匹配,将路由划分为Valid、Invalid、NotFound三种状态。该标准仅验证路由起源合法性(不涉及路径验证),支持四字节AS号,验证结果可用于路由策略过滤或优先级调整。核心局限包括依赖数据库安全性、无法防御中间人攻击等。文档详细说明了验证流程、状态定义、策略应用及安全考量,为防范BGP前缀误宣告提供了标准化解决方案。
2025-12-06 15:00:00
1450
原创 RFC 8210: 资源公钥基础设施(RPKI)到路由器协议,版本 1
术语定义新增数据类 PDU,用于传输路由器密钥,含 ASN、Subject Key Identifier(SKI,20 字节)、Subject Public Key Info(ASN.1 DER 编码)统称数据类 PDU(前缀 PDU+Router Key PDU),区别于控制类 PDU定时参数(3 个)
2025-12-06 14:00:00
1241
原创 RFC6810: 资源公钥基础设施(RPKI)到路由器协议
术语定义全球 RPKI(Global RPKI)由 IANA、RIRs、NIRs、ISPs 等部署的分布式服务器发布的权威 RPKI 数据,含证书、ROA 等(RFC 6481)本地缓存(Cache)聚合并验证后的 RPKI 数据副本,通过 rsync 协议从全球 RPKI 或上级缓存定期同步,为路由器提供数据服务Serial Number(序列号)32 位严格递增无符号整数,标识缓存数据版本,更新完成后递增,支持从 2³²-1 回绕至 0Session ID(会话 ID)
2025-12-06 13:30:00
1365
原创 RFC 6480: RPKI(资源公钥基础设施)的核心架构文档
RFC6480定义了支持安全互联网路由的基础设施RPKI,包含三大核心组件:1)资源PKI体系,通过X.509证书绑定IP/AS号权属;2)路由源授权(ROA)机制,由地址持有者授权AS号发起特定前缀路由;3)分布式存储库系统,通过清单(Manifest)校验对象完整性。该架构采用分层设计匹配IP分配体系,支持BGP路由起源验证,同时复用现有标准(如CMS签名)降低部署成本。关键特性包括:EE证书单次使用、强制rsync协议同步、多宿主场景灵活授权,并为IPv4/IPv6提供统一安全框架。
2025-12-06 13:00:00
1024
原创 使用argus检测互联网中的前缀劫持(2012)
本文提出Argus系统,通过控制平面与数据平面深度关联实现前缀劫持精准检测。系统监控三类路由异常(起源、邻接、策略),结合分布式探测点的可达性测试,计算指纹相关性系数进行判定。经1年互联网实测验证,从4万条异常中识别220起劫持事件,误报率仅0.2%,检测延迟数秒。研究揭示了劫持事件的关键特征:20%持续时间<10分钟、部分2分钟内污染90%互联网,91%针对最具体前缀。该系统无需修改现有基础设施即可部署,具有低误报、实时检测等优势,已提供公共在线服务。
2025-12-06 08:45:00
1459
原创 使用多代理间 AS 诊断系统检测和恢复前缀劫持(2010)
本文提出一种基于多代理的域间诊断系统,用于检测和恢复前缀劫持。系统通过跨AS ping测试(基于向量相似度)和AS_PATH变更验证(结合邻居关系与IRR数据)两种方法提升检测准确性。恢复方案包括劫持回夺(利用BGP路径优选规则)和前缀隔离(使用NO_EXPORT标签)。实验表明,ping测试能有效区分劫持与合法MOAS行为,AS_PATH验证检测到17次告警(含1起确认劫持),两种恢复方案均可快速缓解劫持影响。该系统无需修改BGP协议,兼顾检测准确性和恢复时效性。
2025-12-05 16:15:00
749
原创 准确实时识别IP前缀劫持(2007)
摘要:该研究提出一种实时检测IP前缀劫持的混合方案,结合控制平面异常检测与数据平面指纹验证。通过分析MOAS/subMOAS冲突及AS路径约束识别可疑路由更新,并利用OS指纹、IPID等特征进行主动探测验证。创新性地采用反射扫描技术解决子网劫持探测难题。实验表明,该系统能在4分钟内完成检测,将MOAS冲突误报率从100%降至8.9%,有效覆盖5类劫持中的4类。部署无需修改现有协议,实测2周处理3685个冲突案例,最终筛选出332个高置信度劫持事件,验证了方案的实用性与准确性。主要局限是无法检测未触发路由更新
2025-12-05 08:00:00
1771
原创 iSPY:自行检测IP前缀劫持(2008)
本文提出iSPY系统,一种基于前缀所有者视角的IP前缀劫持实时检测方案。系统创新性地利用劫持事件会导致拓扑分散的AS污染并产生独特不可达签名(多切割点)的特性,通过轻量级主动探测(仅针对3742个中转AS)获取AS级路径,对比路径切割点数量区分劫持与正常路由故障。实验表明,该系统在25天互联网部署(88个AS、108个前缀)和15次可控劫持测试中,误报率仅0.17%、漏报率0.45%,检测延迟1.4-3.1分钟,满足实时性、准确性等六大核心需求,且无需修改现有协议即可部署。
2025-12-05 04:00:00
533
原创 针对BGP前缀劫持的实用防御(2007)
本文提出一种增量部署的BGP前缀劫持防御方案,包含反应式防御(虚假路由清除+有效路由提升)和主动式防御(客户路由过滤)。实验表明:20个高连通度AS参与反应式防御可使网络污染率从50%降至15%;客户路由过滤单独部署效果有限(80个AS仅降至9%),但与反应式防御组合可显著提升防护效果。研究还发现0.2%的AS对可能规避检测系统,但整体风险可控。该方案通过少量AS参与即可实现显著防御效果,兼具实用性与部署可行性。
2025-12-04 19:00:00
939
原创 检测虚假BGP路由信息:超越前缀劫持(2007)
核心问题:BGP 协议缺乏路由认证机制,攻击者可注入虚假路由(前缀劫持、路径欺骗),用于流量劫持、垃圾邮件、钓鱼等恶意行为;现有防护依赖临时路由过滤或未广泛部署的安全扩展(如 S-BGP),实时检测工具存在检测范围窄、误报率高等问题。研究创新:提出基于 “路由信息对象稳定性” 的检测思路,无需依赖不完整的 WHOIS 数据库或复杂的 AS 关系推断,可覆盖各类虚假路由,兼顾检测精度与部署可行性。核心贡献系统支持检测所有类型虚假路由,包括 4 类前缀劫持和 2 类路径欺骗。
2025-12-04 09:45:00
676
原创 互联网中前缀劫持与拦截的研究(2007)
研究聚焦互联网前缀劫持与拦截问题,提出拦截方法论并基于Route-Views数据量化其影响。研究发现:一级AS可劫持/拦截52%-79%流量,三级以上AS能力显著降低(劫持13%-31%,拦截7%-17%)。实验验证拦截实施与劫持同样简单,仅需修改BGP策略。检测方面,结合控制与数据平面信息的方法因合法路由配置干扰无法明确识别拦截行为。研究揭示了前缀拦截的普遍威胁与检测挑战,为路由安全提供了重要参考。
2025-12-03 15:00:00
1617
原创 BGP前缀劫持在互联网上有多普遍(2006)
摘要:前缀劫持是利用BGP协议漏洞的网络攻击,攻击者通过宣布非自有IP地址块获取不可追踪IP。研究显示,2005年6月存在约90起恶意劫持事件,而配置错误导致的无效路由宣布高达4000余起。恶意劫持多针对子块且持续时间短,而配置错误对BGP层的威胁更大。研究表明,优化路由器配置管理比防范恶意攻击更为紧迫,配置错误是当前互联网路由异常的主因。
2025-12-03 04:45:00
639
原创 集群调度系统(Slurm/K8s):定义、核心功能与主流工具解析
集群调度系统是大规模集群(尤其是多 GPU / 超算集群)的 “必备基础设施”,核心价值是 “统一管理资源、有序调度任务”,避免冲突、提升利用率、保障稳定性。若在科研机构 / 超算中心,主要做长时大规模计算(如大模型训练、科学模拟),Slurm 是首选 —— 稳定、适配 HPC 场景,是科研界的 “标准工具”;若在互联网公司 / 云厂商,主要做 AI 推理、快速迭代的训练任务,或需要容器化部署,K8s 是首选 —— 弹性强、生态完善,适配云原生场景;
2025-12-02 15:15:00
766
原创 集合通信的底层逻辑全解析
集合通信通过"逻辑节点"和"逻辑链路"抽象物理硬件,屏蔽GPU/服务器等底层差异,使通信算法更具通用性。逻辑节点为虚拟参与方(rank标识),逻辑链路为虚拟通信通道,两者共同简化通信管理。集合通信库(如NCCL)负责算法实施和资源调度,集群调度系统(如Slurm)管理物理资源分配,AI框架(如PyTorch)提供高层接口。这种分层协作使开发者无需关注底层细节,只需调用简单接口即可完成高效通信。典型场景如64卡GPU集群的AllReduce操作,各层自动协同完成最优通信
2025-12-02 08:45:00
1184
原创 集合通信(Collective Communication):定义、核心组成与实现逻辑
集合通信是多节点协同的全局数据交互模式,区别于点对点通信,它通过标准化的通信原语(如AllReduce、Broadcast)、优化的网络拓扑(全互联/树形/环形)、同步机制和底层传输协议(RDMA/TCP),实现高效的多节点数据协同。这种通信范式是分布式AI训练和超算的核心技术,支持千亿参数模型的梯度同步等关键操作。通信库(如NCCL)自动优化传输路径,开发者只需调用封装接口即可实现高性能通信,无需关注底层细节。集合通信通过原子化操作和硬件感知优化,比手动组合点对点通信效率提升10-100倍,成为大规模分布
2025-12-01 16:30:00
1012
原创 RDMA 存在的核心问题(附技术痛点 + 解决方案思路)
RDMA技术应用面临五大挑战及解决方案:1.高成本问题,建议短期采用RoCE复用现有网络,长期等待低成本设备普及;2.兼容性难题,通过标准化配置和自动化工具解决;3.编程复杂度高,使用封装库简化接口并配合专业调试工具;4.可靠性风险,采用软件层容错机制和严格权限管理;5.性能优化难,需调整内存布局、网络参数并升级硬件。整体解决方案强调软硬件协同优化,平衡性能与成本。
2025-12-01 11:38:28
1181
原创 NUMA 节点:定义、原理、作用及对 RDMA/GPU 集群的影响
NUMA(非统一内存访问)架构是多CPU服务器的核心设计,将CPU核心、本地内存和PCIe设备打包为独立节点。本地访问速度快,跨节点访问延迟高。在AI/超算场景中,NUMA拓扑直接影响RDMA和GPU性能:设备与内存同节点时效率最高,跨节点时性能显著下降。优化方法包括:使用numactl绑定CPU核心与节点、合理分配PCIe设备、关闭NUMA平衡等。科研中需注意程序调度与节点匹配,避免跨节点访问导致的性能损失。
2025-12-01 07:45:00
708
原创 RDMA(Remote Direct Memory Access):定义、实现协议、优缺点全解析
RDMA 的本质是 “用硬件成本换性能”,核心价值在于解决传统网络的 “延迟高、CPU 占用高、带宽瓶颈” 问题,是超大规模 AI 集群、高性能计算的 “刚需技术”—— 比如鹏城实验室的 GPU 集群用 InfiniBand RDMA,实现万卡 GPU 间的梯度同步延迟低至微秒级,让千亿参数大模型训练周期从数年压缩到数月。
2025-11-30 16:30:00
1014
原创 大模型是如何在GPU集群中实现分布式训练的?
摘要:大模型分布式训练主要通过数据并行、模型并行和混合并行三种方式实现。数据并行将训练数据拆分到多个GPU,每个GPU持有完整模型;模型并行(含张量并行和流水线并行)将模型拆分成部分分配给不同GPU;混合并行则组合多种方式,适用于超大规模模型训练。其中,数据并行适合数据量大的场景,模型并行解决单卡显存不足问题,混合并行(如GPT-3训练采用的3D并行)能显著提升训练效率。DeepSpeed的ZeRO技术通过精细拆分进一步优化资源利用,使普通集群也能训练百亿级参数模型。
2025-11-30 10:15:00
474
原创 AI 框架与 GPU 集群测试框架:定义、主流类型及实现原理
AI框架是为AI开发提供的底层工具集,封装算法、硬件交互和分布式计算能力,简化模型构建与训练流程。测试GPU集群性能主要使用两类工具:通用AI框架(如PyTorch、TensorFlow)通过实际训练任务评估算力与通信效率;专用基准测试工具(如MLPerf、NCCL Tests)则通过标准化计算任务量化集群的硬件性能。测试核心关注GPU利用率、训练吞吐量、通信带宽等指标,PyTorch适合业务场景测试,MLPerf提供权威性能数据,NCCL Tests专注通信性能评估。AI框架和测试工具共同构成了AI技术落
2025-11-29 14:00:00
799
原创 多 GPU 集群架构:核心设计与实现原理
硬件层面:通过 “NVLink/PCIe(单机)+ InfiniBand/RoCE(跨机)+ 叶脊拓扑” 构建低延迟、高带宽的物理链路,是集群效率的基础;软件层面:依赖 NCCL 等专用通信库优化集合通信,通过 DDP 等上层框架封装细节,让开发者无需关注底层;调度层面:通过 Slurm/K8s 实现资源管理与任务调度,支撑大规模集群的稳定运行;核心目标:将分散的 GPU 资源整合为 “统一算力池”,让开发者像使用单 GPU 一样使用千卡 / 万卡集群,突破算力与显存限制。
2025-11-28 12:30:00
1393
原创 大规模GPU集群跨节点通信问题的主要步骤
大规模GPU集群跨节点通信的核心流程可分为五个关键步骤:数据预处理、本地导出、跨节点传输、远程导入和全局同步。在数据准备阶段,通过压缩和分片优化减少传输量;本地导出利用DMA技术将GPU数据拷贝到主机内存;跨节点传输依赖RDMA和高速网络实现高效转发;远程导入再次通过DMA将数据写入目标GPU;最终通过集合通信确保数据一致性。该过程面临PCIe带宽、网络拥塞和同步延迟等挑战,优化方向包括硬件升级(PCIe5.0/6.0)、拓扑感知路由和分层AllReduce等,以最大限度减少GPU闲置时间,提升整体计算效率
2025-11-27 17:30:00
1001
3
原创 常用的 CPU 与 GPU 指令代码:分类、示例及作用解析
本文对比了CPU和GPU指令代码的差异与应用场景。CPU指令分为机器码和汇编指令,包括数据传输、算术运算、控制流和向量加速四类,开发者可通过x86/ARM架构指令进行底层优化。GPU指令主要通过CUDA/ROCm等框架调用,包含核函数、PTX汇编和高层API三类,专为并行计算设计。实际开发中,普通业务推荐使用PyTorch/NumPy等框架封装的高层接口,性能优化时可针对CPU向量指令或GPU并行计算进行专项调优。文章还指出CPU擅长串行复杂逻辑,GPU则专精海量数据并行处理,并建议跨平台开发使用OpenC
2025-11-27 10:00:00
1784
原创 CPU 和 GPU 的指令集:类型、作用及核心差异解析
CPU与GPU指令集设计差异源于其核心定位:CPU指令集(如x86/ARM)侧重通用性,支持复杂逻辑判断、多任务调度和多样化计算,具备丰富指令类型和低延迟特性;GPU指令集(如CUDA/ROCm)专为并行计算优化,采用SIMD模式实现数万核心同步运算,聚焦算术运算和内存访问,吞吐量极高但延迟较高。在科研场景中,CPU负责任务调度与系统控制,GPU处理海量并行计算(如AI训练),二者协同工作。优化指令集使用(如启用TensorCore)可显著提升计算效率2-5倍,充分释放硬件算力。
2025-11-26 15:30:00
954
原创 GPU 与 CPU 内部通道:结构、功能及优缺点全解析
CPU和GPU内部通道设计差异显著:CPU采用低延迟、灵活的多通道架构(指令/数据总线分离、缓存互联等),适合复杂逻辑调度,但带宽有限(1-2TB/s);GPU则通过高带宽并行通道(寄存器堆互联、SM互联网络等)实现10-20TB/s吞吐量,专为海量并行计算优化。CPU通道占比15-20%芯片面积,GPU仅占8-12%。这种差异决定CPU擅长系统调度等通用任务,GPU则胜任AI训练等并行计算。多卡互联时,NVLink等专用通道(300GB/s)显著优于PCIe,成为大模型训练的关键基础设施。二者通道设计体现
2025-11-26 10:30:00
867
原创 显存和内存有什么区别?
内存(RAM)和显存(VRAM)是计算机中两种关键的临时存储硬件,但功能定位截然不同。内存作为CPU的"通用工作台",存储系统进程和运行软件数据,容量较大但带宽较低;显存则是GPU的"专属实验室",专用于存储AI模型参数、图形数据等,具有超高带宽(可达内存的10-50倍)但容量较小。两者无法互相替代——即使内存充足,GPU仍需将数据加载到显存才能计算。在科研场景中,显存容量和带宽直接影响大模型训练和科学计算的效率,是性能提升的关键瓶颈。
2025-11-25 16:00:00
3446
4
原创 什么是GPU?—— 从本质到应用的通俗解析
GPU 的核心是 “并行计算”,从最初的图形渲染工具,进化为 AI 时代的核心算力支撑 —— 对于计算机科学领域的科研 / 工作而言,GPU 是处理海量数据、训练复杂模型、加速科研进程的 “必备工具”。理解 GPU 的并行特性、选型逻辑和软件适配,能帮助更高效地开展研究(如大模型训练、科学计算、AI 应用开发)。
2025-11-24 17:25:05
756
翻译 利用互联网阴影区域实现隐蔽拦截:互联网交换点上的BGP劫持
摘要:本研究探讨BGP劫持攻击中难以检测的"影子区域"问题。分析表明,52%的AS响应traceroute,但73%的IXP对等互联AS及其客户缺乏BGP监控。研究提出新型下游攻击模型,利用IXP特性精准控制路由传播,发现1,328个AS既无监控也不响应探测,构成潜在攻击面。研究揭示了现有检测系统盲区,并指出IXP路由服务器导致的BGP路径隐藏问题可能影响评估准确性。研究为提升BGP安全性提供了新的检测盲区特征描述和量化分析。
2025-11-22 20:00:00
24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅