自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

叫好与叫座虽然不是对立面,但想在同一个作品中达到双重效果很难。

---阅读文字让我踏实(专注IC、安全、TEE、TrustZone、Keyladder、IC等领域)

  • 博客(1537)
  • 收藏
  • 关注

原创 三大 AI Agent 模式 大白话对比表

补充说明:当下主流的Agent框架,基本都是以ReAct为核心基础,再叠加Plan-and-Execute的规划能力、Reflection的纠错优化能力,组合成更强大的智能体。

2026-03-01 15:10:33 237

原创 20260229刷题计划:Day1 数组&字符串+哈希表

先理解模板每一行的含义、适用场景、边界处理,再抄写到模板手册中,作为当日默写的标准版本,禁止死记硬背。:30分钟内完成所有错题的录入,哪怕5道题全错,也要全部按格式录入,不遗漏任何一个错误点。:不修改代码,只标注问题,错题修改放到晚上复盘环节。

2026-02-28 17:23:34 580

原创 机器人操作 CV 领域熟手养成精细化知识地图

(全模块可打卡/可量化验证,全模块掌握即达工业级落地熟手标准)机器人操作CV领域熟手养成。

2026-02-28 16:21:31 526

原创 智驾后融合感知核心:融合策略设计,从算法到量产的落地框架

至此,我们完整拆解了后融合感知的三大核心模块:卡尔曼滤波(状态估计)、匈牙利算法(数据关联)、融合策略(系统落地)。卡尔曼滤波是状态估计的核心,解决了「目标在哪、会去哪」的问题;匈牙利算法是数据关联的核心,解决了「哪个检测对应哪个目标」的问题;融合策略是系统落地的框架,决定了「什么时候、用什么方式把两个算法组合起来,输出规控能用的结果」。后融合感知之所以能成为量产智驾的主流方案,核心就在于它的模块化、可解释性、功能安全易满足,而融合策略的设计,正是把算法转化为量产产品的最后一公里。

2026-02-25 15:44:03 768

原创 车载毫米波&超声波雷达核心知识点结构化总结

在自动驾驶的感知体系里,没有任何一种传感器是万能的。摄像头、激光雷达、毫米波雷达、超声波雷达,各有各的优势,也各有各的短板。毫米波雷达,负责中高速、中远距离的全天候感知,是车辆高速行驶的安全核心,撑起了ACC、防撞预警等核心行车功能;超声波雷达,负责低速、短距离的近距离感知,是自动泊车、倒车辅助的刚需标配,成本低、耐造可靠。只有通过多传感器的深度融合,取长补短,才能构建出全场景、全天候、高可靠的环境感知系统,让自动驾驶更安全、更普及。

2026-02-24 10:18:34 914

原创 车载激光雷达核心知识点结构化总结

从零读懂激光雷达:从核心原理到产业落地,一文搞懂智能时代的“三维火眼金睛”当我们谈论自动驾驶、机器人导航、高精度测绘时,总会绕不开一个核心传感器——激光雷达(LiDAR)。它被称作机器的“三维眼睛”,能把现实世界精准复刻成三维点云,让冰冷的机器真正“看清”周围环境的每一处细节。但对很多人来说,激光雷达依然是个“熟悉的陌生人”:只知道它是车顶上那个会转的器件,却不懂它的工作原理,分不清905nm和1550nm的区别,搞不懂机械式、混合固态、固态的技术路线差异。

2026-02-24 09:58:05 470

原创 车载摄像头核心知识点结构化总结

车载摄像头按安装位置分为4大类,高阶自动驾驶车型常规配置:ADS前视摄像头7~10颗,侧视+后视摄像头合计5颗,车型配置差异主要集中在前视摄像头。车载摄像头硬件核心由5大组件构成,成像核心链路:光线→光学镜头→红外滤光片→图像传感器(光电转换)→ISP(信号处理)→串行器→域控制器。,当前所有主流自动驾驶方案均无去摄像头的设计,仅存在去激光雷达/毫米波雷达的方案。车载摄像头是自动驾驶。

2026-02-21 11:58:43 775

原创 深度学习目标关联:常见深度学习匹配方法全面详解

孪生网络是深度学习匹配的入门方案,适合单目标跟踪;ReID表观匹配是工业落地首选,简单、高效、稳定,DeepSORT 就是代表;度量学习让特征更具判别力,适合高密度、高干扰场景;时序运动匹配擅长处理遮挡与快速运动;表观+运动融合是当前最强方案,真正解决复杂真实场景;Transformer全局匹配是未来趋势,但目前仍难以实时部署。深度学习匹配 = 让机器从“看位置”升级为“认目标”,是现代多目标追踪真正的灵魂。

2026-02-12 15:29:28 396

原创 深挖 TBD 核心进阶点:深度学习匹配(目标关联的“智能指纹”)

深度学习匹配的本质:给目标提取“外观指纹”,靠指纹相似度做关联,而非仅靠位置/重叠;核心价值:解决传统关联方法“认位置不认长相”的痛点,大幅提升复杂场景下的追踪稳定性;落地关键:ReID 特征提取 + 余弦相似度 + 匈牙利算法(DeepSORT 是最经典的落地范式);工程权衡:需在“准确率”和“实时性”之间平衡(比如轻量模型 + 硬件加速)。

2026-02-12 15:25:32 440

原创 彻底搞懂:基于检测的追踪(TBD)与质心关联算法

Tracking By Detecting(基于检测的追踪)是目前工业界、学术界最主流、最通用的多目标追踪范式。每一帧都先做目标检测,再把前后帧的检测结果关联起来,形成连续轨迹。先检测 → 后关联 → 生成轨迹这一逻辑的追踪方法,全都叫 TBD。质心法 = TBD 框架下,最简单、最朴素的目标关联方式。谁离得近,谁就是同一个目标。不看外观、不看尺寸、不看特征,只看中心点距离。TBD 是框架所有「先检测、后关联、串成轨迹」的追踪方法都叫 TBD。质心法是算法是 TBD 里。

2026-02-12 15:13:39 399

原创 万字长文吃透光流法:原理、LK算法、稀疏/稠密对比 + 工程优缺点 + 实战应用场景

光流 = 视频里每个像素在两帧之间的“运动速度与方向”。更标准一点:在连续图像序列中,同一物理点在相邻帧之间的位移向量,就叫光流。第 t 帧:一堆像素的位置第 t+1 帧:这些像素移动了一点点每个点从哪来,到哪去光流不是真实的物理速度(距离/时间),而是图像平面上的表观运动。物体在动相机在动动得快还是慢往哪个方向动光流:两帧之间像素的位移向量 (u, v)光流原理:亮度恒定 + 小运动 + 空间一致 → 得到 (I_x u+I_y v+I_t=0)LK 算法。

2026-02-12 14:57:07 493

原创 技术科普:一文彻底搞懂 ROI Pooling、ROI Align 与插值算法

线性插值是最简单、最基础的插值方法,用于在一维空间中,根据两个已知点估算中间任意点的数值。已知点 x₀ 对应值 y₀已知点 x₁ 对应值 y₁求中间点 x 的值 y两点之间的变化是均匀线性的。双线性插值是线性插值在二维图像/特征图根据一个像素周围四个整数坐标点的数值,估算任意浮点坐标位置的像素值。在x 方向做两次线性插值,得到两条边上的中间值;在y 方向再做一次线性插值,得到最终点的数值;两次一维线性插值的组合。操作核心策略误差适用场景整数坐标取整 + Max Pooling。

2026-02-12 14:34:56 445

原创 目标追踪概述、分类

目标追踪的输入通常是视频。视频是一种非结构化的数据,可以看作图像序列的组合(一组有序的图像)​。虽然在形式上视频没有固定的结构,但在内容上视频本身有着较强的逻辑关系。如图10.15所示,按照颗粒度大小将视频分为帧(Frame)、镜头(Shot)和场景(Scene)3个层次。· 帧是视频最基本的单元,视频帧其实是一幅图像,关键帧又叫代表帧,是指具有代表性的帧。· 镜头是由一系列帧组成的,这些帧表达同一个事件或者摄像机的一组连续的运动。

2026-02-12 14:06:28 469

原创 图像分割:目标检测、语义分割和实例分割

FCN模型先进行一系列的卷积与池化操作,实现图像的下采样,以提取图像中的目标特征,然后再通过反卷积实现上采样,将特征图放大到与原图同样大小的尺寸,并对每个像素点进行分类,从而实现图像的分割。FCN是首个图像语义分割的深度学习模型,它可以实现像素级的分类。FCN也是一个端到端的模型,使用起来非常方便,后来很多分割模型受到了FCN模型的启发。FCN模型会忽略图像的细节信息,同时它也没有考虑图像的全局特征,这会导致其预测的目标边界不够清晰。另外,FCN模型不能区分不同的个体,不能做到实例级别的分割。

2026-02-12 11:21:14 640

原创 unet_predict.py

【代码】unet_predict.py。

2026-02-12 10:16:43 29

原创 U-Net训练中Adam优化器的核心原理与参数本质解析

优化器的本质:利用梯度信号制定参数更新规则,核心是确定参数调整的“方向”和“幅度”;Adam的核心优势:相比SGD,Adam通过“动量(记忆历史方向)+自适应学习率(个性化调整幅度)”实现快速、稳定的参数更新;Adam参数的本质:所有参数(超参数/状态参数)均非模型训练参数,是“优化规则”而非“被优化的对象”;适配U-Net的核心:Adam的自适应特性、高鲁棒性完美匹配U-Net参数多、需精准分割的训练需求,是语义分割任务的最优选择之一。

2026-02-12 10:09:23 674

原创 深度学习核心优化指标教程:参数量、FLOPs、推理延迟(区别+计算+优化)

精准定义:模型中所有可通过训练学习更新的参数总数(如卷积层的权重、偏置,全连接层的权重等)。通俗理解:类比“一本字典的字数”——字典字数越多,占用的存储空间越大;模型参数量越多,占用的磁盘/显存空间越大。常用单位K(千,10310^3103)、M(百万,10610^6106)、G(十亿,10910^9109例:MobileNetV2参数量约3.5M,意为约350万个可学习参数。核心意义决定模型的存储大小(参数量1M≈4MB,因浮点数占4字节);影响训练时的显存占用。

2026-02-11 08:47:55 565

原创 MobileNetV2训练+推理的完整逻辑

核心流程脉络:配置初始化 → 数据处理 → 模型准备 → 训练(多轮)→ 测试 → 保存最优模型 → 推理;关键模式切换:训练用,测试/推理用;反向传播三步骤:清空梯度 → 计算梯度 → 更新参数,这是模型“学习”的核心逻辑。整个流程的核心是通过多轮训练调整模型参数,让模型在测试集上的准确率最大化,最终用最优模型完成新图片的推理预测。

2026-02-11 08:35:39 378

原创 PyTorch深度学习基础教程:从核心概念到MobileNetV2完整训练与推理

核心概念:张量是PyTorch的基础数据结构,通道是特征维度,卷积层负责提取特征,参数是模型需要学习的权重;MobileNetV2实战:核心流程为「数据加载→模型定义(适配任务)→损失/优化器→训练循环→测试→推理」;关键操作:训练时用,推理时用,参数更新依赖反向传播和优化器.step()。通过这份教程,你不仅能跑通完整的MobileNetV2训练推理代码,还能理解深度学习的核心基础概念。

2026-02-11 08:35:07 323

原创 能跑通、贴合自动驾驶场景的完整优化流水线代码

基础模型 → 通道剪枝+微调 → QAT量化 → 导出ONNX → TVM算子搜索 → 编译部署;精度不崩(安全)> 速度够快(实时)> 体积够小(适配车载芯片);工业界落地:代码逻辑和这个一致,只是数据集换成KITTI/COCO,模型换成语义分割/目标检测模型(比如YOLO+UNet)。

2026-02-10 10:02:27 249

原创 三类优化技术对应的具体算法/方法

模型剪枝:自动驾驶只选「通道剪枝+迭代微调」,保证部署性和精度;量化:车端必须用「量化感知训练(QAT)」,优先混合精度/非对称量化;算子搜索:工业界用「AutoTVM+算子融合+模板搜索」,适配车载芯片、保证实时性。

2026-02-10 10:00:44 229

原创 自动驾驶AI模型能真正装上车、跑起来、不卡顿的「黄金三件套」

剪枝:删冗余量化:降精度算子搜索:找芯片最快跑法三件套一上,大AI才能装进小车里。

2026-02-10 09:53:52 304

原创 基于搜索的剪枝方法

从表中可以看出,基于重要性的剪枝依赖人工设计的重要性评价准则,在低压缩率下尚能保持精度,但随着剪枝比例提升,精度会出现明显下降;而基于搜索的剪枝将剪枝视为结构搜索问题,通过强化学习、演化算法、可微分搜索等策略自动优化通道配置,能够在更高压缩率下更稳定地保持模型精度。其中,DMCP、AutoSlim 等可微分搜索剪枝方法,在搜索效率与性能上均表现突出,成为当前结构化剪枝的主流发展方向。

2026-02-10 09:01:56 270

原创 小白版详解:剪枝怎么评好坏?怎么判断该剪谁?

剪枝效果评价:看3点——准确率掉得少、模型压缩比例大、实际运行时间短,测试用CIFAR-10(小测)/ILSVRC-2012(大考),模型用VGG/ResNet/MobileNet;剪枝选谁裁:分两类规则——参数驱动(看简历,快但糙)、数据驱动(看面试,慢但准),现在主流用数据驱动;核心逻辑:剪枝不是乱裁,而是“精准裁员”——先打分,裁掉分数低的,既让模型变小变快,又尽量不影响准确率。

2026-02-10 08:45:35 354

原创 三种剪枝算法流程

因为咱们只做图片分类用什么数据测?用大家公认的标准图片数据集(比如ImageNet),保证公平。用什么模型剪?就是前面说的 ResNet、MobileNet 这些常用网络。瘦了多少:参数少了多少、计算量少了多少;笨了多少:图片分类准确率掉了多少。好剪枝 = 又小又快,准确率还几乎没变。现在剪枝就三套路标准剪枝:先训大模型 → 剪 → 微调 → 循环剪(最常用);采样剪枝:剪一堆小模型,挑最好的;搜索剪枝:AI 自己搜最优结构,一步到位。给网络安全减肥,又小又强。

2026-02-10 08:37:24 305

原创 残差网络 & 两种剪枝

残差结构 = 算个差值 + 原信息一串绑在一起的残差块 = 一个阶段只剪小零件 = 滤波器剪枝(会变沙漏)整段一起剪 = 阶段剪枝(均匀瘦身)两者搭配 = 又小又强的压缩模型。

2026-02-10 08:07:48 771

原创 读一下FLOPs的计算以及参数量公式+推导逻辑

FLOPs的定义+作用;卷积层[Cout, Cin, K]的记法+含义;一次乘加算2次浮点运算的规则;完整FLOPs公式(含偏置项)+ 每一项的含义;完整参数量公式(含偏置项)+ 每一项的含义;简化模型的所有条件(两层、K=3、步长1、普通卷积、无偏置);简化后的FLOPs和参数量公式+推导逻辑。

2026-02-09 23:10:46 536

原创 知识蒸馏 大白话详解(适配YOLO/机器人轻量化场景)

知识蒸馏就是让轻量化小模型站在大模型的“肩膀上”,不用自己从头摸索,直接学到大模型的深层检测知识,最终实现「小模型的速度,大模型的精度」,是机器人等端侧设备目标检测轻量化的核心方法之一。

2026-02-09 11:03:32 359

原创 低秩近似大白话讲解(附落地视角)

低秩近似就是模型轻量化的「拆箱大师」,把卷积/全连接层里“又大又笨的大矩阵运算”,拆成“小巧灵活的小矩阵运算串联”,用几乎不丢精度的代价,让模型变轻、硬件提速;而且分解后模型结构依旧规整,普通硬件能直接用,是YOLO这类落地模型轻量化的主流方法,和结构化剪枝搭配使用,能完美满足机器人场景对“轻量、实时、高精度”的需求。

2026-02-09 10:45:55 441

原创 模型剪枝大白话讲解:结构化 vs 非结构化

拆零散的非结构化剪枝,更像“纸上谈兵”,理论数据好看,实际用不上;拆整块的结构化剪枝,才是工程落地(比如机器人的YOLO轻量化)的主流,能真正实现模型“又轻又快”。

2026-02-09 10:22:07 628

原创 YOLOv8n机器人场景目标检测实战|第一周工作笔记2

✅ Ultralytics8.0+PyTorch2.1环境搭建完成,基于Conda管理,无版本冲突,可正常训练与推理;✅ 机器人场景COCO子集整理完毕,共8000张(7000训+1000验),YOLO标准格式,可被Ultralytics正常识别;✅ YOLOv8n基础训练跑通,50轮训练收敛良好,无报错,数据集与模型兼容性验证通过;✅ 小障碍物mAP@0.5=0.68≥65%,达标;模型参数量、推理速度等基础指标已记录;✅ 训练后模型可正常推理,输出机器人场景目标检测框,结果可视化正常。

2026-02-09 09:28:54 622

原创 YOLOv8n机器人场景目标检测实战|第一周工作笔记1

基于Conda搭建Ultralytics8.0+PyTorch2.1专属环境,完成COCO2017机器人场景子集筛选(8000张,7000训+1000验),跑通YOLOv8n基础训练(epoch=50),小障碍物mAP≥65%,模型可正常输出推理结果,满足周验收全部目标。:全程使用Conda进行包管理与环境隔离,无pip命令使用,规避版本兼容问题;模型选用YOLOv8n(轻量化版本,适配机器人端算力限制),替代原计划YOLOv9n,核心实操逻辑一致。

2026-02-09 09:28:09 1005

原创 1小时吃透YOLOv9核心创新|机器人场景轻量化适配指南

ELANv4骨干网络实现轻量化特征提取,C2fPN特征融合提升小目标检测精度,损失函数优化增强模型训练稳定性。与YOLOv8相比,YOLOv9在参数量减少15.6%的同时,推理速度提升17.9%小目标mAP提升3.4%,非常适合机器人室内小场景的目标检测任务。接下来的实操阶段,我将基于今天的理论学习,搭建Ultralytics8.0+PyTorch2.1环境,筛选COCO机器人场景子集,并进行YOLOv9n的基础训练。期待在实操中验证今天的学习成果,特别是C2fPN对小障碍物检测的提升效果。

2026-02-06 10:39:27 637

原创 《AI Flow: Perspectives, Scenarios, and Approaches》论文解读

家族模型:一组“尺寸不同但隐藏特征对齐”的模型,共享中间计算结果(无需额外中间件转换),可灵活切换以适配端、边、云硬件。关键优势:灵活伸缩:参数规模可从数百万(端侧)到数十亿(云端)调整;高效协作:小模型的中间特征可直接被大模型复用,减少重复计算与数据传输。AI Flow的核心创新在于打破AI与通信的技术壁垒,通过“硬件分层协同+模型家族适配+智能交互涌现”的三位一体设计,解决了大模型落地的“资源-通信”双重瓶颈。技术层面:首次提出标准化的AI-CT融合框架,为泛在智能提供可落地的技术路径;

2026-01-24 09:22:53 587

原创 高增长科技股投资法 核心内容深度拆解

最近读了《高增长科技股投资法》,我发现这个很不错,也很符合这次周期的内容。于是用AI生成了一个概要记录,给朋友们分享一下做个参考。有时间推荐去读一下原书,内容很有意思,可惜的就是很多时候晚上太困了,看的时候脑袋瓜不甚清晰。没有链接很多其它的内容。

2026-01-23 15:10:14 841

原创 大模型面试题91:合并访存是什么?原理是什么?

合并访存的核心:让同一个线程束的32个线程访问连续、对齐的全局内存地址,将32次分散请求合并成1~2次批量请求;底层原理:匹配GPU内存控制器的“批量处理规则”,充分利用内存带宽,减少访存请求次数;优化要点:线程索引和内存地址一一对应(步长=数据类型大小),保证起始地址对齐,避免跨步访问。对小白来说,合并访存是GPU编程中“投入最少、收益最大”的优化手段——只需调整线程访问地址的方式,就能让全局内存访存效率提升10倍以上,是写CUDA代码必须掌握的核心知识点。

2026-01-21 15:35:58 549

原创 大模型面试题90:half2,float4这种优化 与 pack优化的底层原理是什么?

核心原理:打包多个基础数据成一个单元,利用GPU的SIMD向量指令一次处理多个数据,同时减少内存访问次数,充分利用硬件宽度;收益来源:一是减少运算指令数(提升运算速度),二是减少内存访问次数(提升带宽利用率);使用原则:优先用half2/float4(简单高效),常规浮点场景足够用;只有定制化场景(如int8量化)才需要通用pack优化。

2026-01-21 15:35:17 509

原创 大模型面试题89:GPU的内存结构是什么样的?

GPU内存的核心逻辑:速度和容量成反比,越靠近计算核心越快、越小,编程时要尽量让数据停在高层级(寄存器/共享内存);程序员可控的内存:寄存器(少用临时变量避免溢出)、共享内存(优化访问避免Bank Conflict),这是GPU优化的重点;性能瓶颈点:全局内存访问速度慢,优化重点是“合并访问+减少访问次数”,多用共享内存缓存数据。对小白来说,不用一开始就掌握所有细节,先记住“金字塔模型”和“数据尽量待在快内存里”这两个核心,后续写CUDA代码时,就能针对性优化了。

2026-01-21 15:29:28 411

原创 大模型面试题88:cuda core的数量 与 开发算子中实际使用的线程 关系是什么?过量线程会发生什么情况?

核心关系:CUDA Core是硬件运算单元,线程是软件任务,线程数需适配SM资源(让占用率接近100%),而非和Core数相等;过量线程的后果:先导致资源不足、占用率下降(性能降),再增加调度开销(性能更差),极端情况程序崩溃;新手原则:线程块大小选32的倍数,总线程数设为SM最大线程数的总和,逐步测试找到最优值。对新手来说,不用追求“线程数越多越好”,先保证“线程数能让SM占满”,再微调优化,就能避开90%的线程相关问题。

2026-01-21 15:28:37 824

原创 大模型面试题87:CUDA出现bank conflict,应该怎么解决?

要理解bank conflict,先搞懂CUDA里的共享内存(Shared Memory)——这是GPU线程块(block)内所有线程共享的高速内存,速度比全局内存快几十倍,是CUDA优化的核心,但它的“存储结构”是导致冲突的关键。Bank Conflict本质:多个线程同时访问共享内存的同一个Bank,导致并行访问变成串行。核心解决思路:让线程访问的地址分散到不同Bank,优先用「调整访问模式」和「Padding」(最简单有效)。验证方法:用Nsight Compute查看冲突率,降到0%即解决。

2026-01-21 15:27:45 913

A TC Architecture of Embedded System Based on Improved TPM

A TC Architecture of Embedded System Based on Improved TPM

2023-08-20

atpg atpg-gd.pdf

atpg atpg-gd.pdf

2023-08-06

dftc-cmd.pdf

dftc-cmd.pdf

2023-08-06

夏闻宇Verilog-PPT.ppt

夏闻宇Verilog-PPT.ppt

2023-08-06

《数字逻辑电路》学习指导

《数字逻辑电路》学习指导

2023-08-06

dftug-dftug.pdf

dftug-dftug.pdf

2023-08-06

dftc-vars.pdf

dftc-vars.pdf

2023-08-06

Technical Background of the Android Suspend Blockers Controversy

Technical Background of the Android Suspend Blockers Controversy

2023-02-22

secure-boot-image-authentication-11.30.16

secure-boot-image-authentication-11.30.16

2023-01-31

开源安全操作系统-OPTEE

开源安全操作系统-OPTEE

2023-01-02

DEN0021D-Trusted-Base-System-Architecture-Client

DEN0021D-Trusted-Base-System-Architecture-Client

2023-01-02

DEN0006D-Trusted-Board-Boot-Requirements

DEN0006D-Trusted-Board-Boot-Requirements

2023-01-02

DEN0028E-SMC-Calling-Convention-1.4eac0

DEN0028E-SMC-Calling-Convention-1.4eac0

2023-01-02

DEN0056E-System-Control-and-Management-Interface-v3.2-BETA

DEN0056E-System-Control-and-Management-Interface-v3.2-BETA

2023-01-02

DEN0022E-Power-State-Coordination-Interface-BETA

DEN0022E-Power-State-Coordination-Interface-BETA

2023-01-02

trustedfirmware-a-readthedocs-io-en-v2.6

trustedfirmware-a-readthedocs-io-en-v2.6

2023-01-02

深入理解Linux虚拟内存管理.pdf

深入理解Linux虚拟内存管理,

2024-07-28

串行外设接口(SPI)主设备.pdf

串行外设接口(SPI)主设备.pdf

2024-07-13

车规级半导体功率器件测试认证规范

车规级半导体功率器件测试认证规范

2024-06-24

ASIC 综合后的静态验证方法的研究.pdf

ASIC 综合后的静态验证方法的研究.pdf

2024-06-24

EDA 技术文档,非常稀缺

EDA 技术文档,非常稀缺

2024-06-24

安全认证和合规中心.pdf

安全认证和合规中心.pdf

2024-06-24

TRACE32工具的SiFive RISC-V调试和跟踪方案

TRACE32工具是一个功能强大的调试和跟踪解决方案,它可以用于各种处理器架构,包括SiFive的RISC-V处理器。以下是一个关于如何使用TRACE32工具进行SiFive RISC-V调试和跟踪的基本方案: 一、硬件连接与配置 确保TRACE32调试器与SiFive RISC-V目标板之间的物理连接正确无误。这通常包括将调试器的JTAG或SWD接口与目标板的相应接口相连。 根据目标板的硬件配置,设置TRACE32工具的相应参数,如时钟频率、处理器型号等。 二、软件安装与配置 在计算机上安装TRACE32调试软件,并确保软件版本与目标板和处理器兼容。 配置TRACE32软件的调试环境,包括选择正确的处理器型号、加载目标板的固件或程序等。 三、调试过程 启动TRACE32调试软件,并连接到目标板。 在软件中加载目标板的程序或固件,以便进行调试。 设置断点:在需要调试的代码行或函数处设置断点,以便在程序执行到这些位置时暂停。 单步执行:通过TRACE32的单步执行功能,可以逐步跟踪程序的执行过程,观察变量的值和寄存器的状态。 查看内存:使用TRACE32的内存查看功能,可以实时检

2024-03-11

ChatGPT芯片算力:研究框架

ChatGPT芯片算力的研究框架可以从以下几个维度进行构建: 一、引言 首先,需要简要介绍ChatGPT的背景、应用以及其对算力的需求。ChatGPT作为一种先进的自然语言处理模型,其训练和推理过程需要强大的计算能力来支撑。随着模型的不断迭代和升级,对芯片算力的需求也在不断增加。 二、算力需求分析 技术原理角度:分析ChatGPT基于Transformer技术的特点,随着模型层数的增加,对算力的需求也相应增加。 运行条件角度:探讨ChatGPT完美运行所需的三个条件:训练数据、模型算法和算力。特别是在大规模预训练过程中,对算力的需求尤为突出。 三、芯片算力支撑 芯片类型:分析不同类型的芯片如何支撑ChatGPT的算力需求,包括GPU、CPU、FPGA以及AI专用芯片等。探讨它们各自的优势和适用场景。 芯片性能:评估芯片的性能指标,如计算能力、功耗、集成度等,以及这些指标如何影响ChatGPT的运行效率和效果。 四、市场趋势与产业链分析 市场趋势:分析随着ChatGPT等AI应用的普及,对芯片算力的需求如何推动芯片市场的增长。同时,探讨芯片价格与数量的变化趋势。 产业链分析:

2024-03-11

on-chip networks:片上网络(On-chip Networks)

片上网络(On-chip Networks)是数字电路中各子系统之间进行通信的一种手段。它通过在硬件层面上搭建类似于“计算机网络”的电路结构,实现各组成部分之间的数据交换。与更高维度的“计算机网络”相比,片上网络具有信道距离短、数据传输速率快等根本特点。 片上网络可以被视为一个系统,因为它集成了许多组件,包括通道、缓冲器、开关和控制逻辑。各terminal多为processor、memory这一级别的组件。随着芯片上组件数的增加,直接链接所有元件所需的布线量将变得难以承受,因此片上网络的出现解决了这一问题。 片上网络的设计可以分解为各种构建块,包括拓扑结构、路由、流量控制、路由器微体系结构和设计以及链路体系结构。与传统的基于总线结构的信息传输系统相比,片上网络突破了SoC在长总线传输、设计方法和结构可拓展性方面存在的技术瓶颈,提高了处理核的利用率、链路使用率及网络的可拓展性。 随着技术的发展,片上网络正在快速取代总线和crossbar,成为数字电路中的主流通信方式。如需更多信息,建议查阅片上网络相关的专业书籍或咨询相关领域的专家。

2024-03-11

TEE and its Key Management:

TEE(Trusted Execution Environment,可信执行环境)是一种安全环境,旨在提供隔离和保护,使应用程序和安全关键操作能够在不被其他应用程序或操作系统干扰的情况下执行。它常用于存储和处理敏感数据,例如密码、密钥和生物识别信息等。 在密钥管理(Key Management)方面,TEE发挥着至关重要的作用。以下是一些TEE在密钥管理中的关键方面: 密钥存储位置的要求:TEE提供了安全的存储位置,用于存储任何加密密钥、信任文件或类似值的加密数据。这些敏感数据被保存在TEE内部,从而避免了被外部攻击者或其他不受信任的应用程序访问的风险。 密钥的用法:与保密密钥相关的任何加密操作都应在TEE内进行,与TEE之外的正常应用程序隔离。这样可以确保机密密钥在运行时只暴露给属于TEE的安全内存,从而防止了密钥的泄露或被非法使用。 安全密钥的安装:初始机密密钥配置通常在工厂生产环境中进行,并且仅允许通过可信通道进行受限访问,以避免机密和敏感信息的泄露或被修改。 密钥的重用:对称和私有非对称密钥应该是唯一的,并且只能在一组组件或单个组件中使用,这确保了密钥的安全性和完整性,避免

2024-03-11

keystone-eurosys20.pdf

keystone-eurosys20.pdf

2024-03-11

ARM:Base Boot Security Requirements 1.2

ARM:Base Boot Security Requirements 1.2

2023-09-02

A new IoT Security certification scheme with trust signals

A new IoT Security certification scheme with trust signals

2023-09-02

Secure-by-Design-NXP-Webinar-Series-OP-TEE

Secure-by-Design-NXP-Webinar-Series-OP-TEE

2023-08-20

Scalable Private Membership Test Using Trusted Hardware

Scalable Private Membership Test Using Trusted Hardware

2023-08-20

TCG Guidance for Secure of Software and Firmware on Embedded Sys

TCG Guidance for Secure of Software and Firmware on Embedded Sys

2023-08-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除