- 博客(96)
- 资源 (3)
- 收藏
- 关注
原创 AI系统-32AI编译器介绍
硬件平台变得越来越复杂和多层次:计算加速平台采用了多层架构,包括标量、向量、多核、多包、多机架等不同层次的并行处理能力。高端 SoCs 和 FPGAs 中,集成了特定领域的加速器,这些加速器针对特定类型的计算任务进行了优化许多加速器的 IP(知识产权)现在是可配置的,这意味着可以根据不同的应用需求进行定制。可选的扩展、瓦片计数、内存层次结构等都可以根据需要进行调整,以满足特定的性能和功能要求。
2026-03-30 09:50:11
1
原创 AI系统-31编译器基础
AI编译器作为连接AI算法与硬件执行的关键桥梁,通过多层中间表达进行优化转换,最终生成目标硬件可执行代码。本文以GCC和LLVM为例介绍传统编译器技术,包括编译器基础概念、GCC的编译流程(预处理、编译、汇编、链接)以及LLVM的模块化设计。AI编译器借鉴传统编译器技术,针对深度学习任务进行优化,解决软件算法多样性与硬件差异化带来的性能挑战,为AI系统提供高效编译支持。
2026-03-30 09:49:09
32
原创 AI系统-30从NPU调度器到AI推理引擎
本文探讨了AI算法在硬件上的部署适配落地过程。核心思路是通过NPU调度器将算法拆分为并行计算任务,并由AI编译器生成的Task在NPU硬件上并行执行。文章以华为Ascend芯片为例,详细介绍了NPU调度器的层级架构和工作原理,包括Stream/Task/Block三级并行模型。同时分析了软件调度器的局限性,提出硬件调度器(HTS)方案,通过专用硬件模块实现细粒度任务调度。最后从AI推理引擎角度,阐述了模型优化、转换和压缩等关键部署环节,说明了AI Runtime如何组织Task图在NPU上运行。整个部署流程
2026-03-30 09:47:55
75
原创 AI系统-29芯片电源管理之PMU
PMU(电源管理芯片)是一种高度集成化的电源管理方案,它集成多路的LDO和DC-DC,以及相应的检测和控制电路,其核心结构通常是PWM控制器和MOSFET。高集成度的PMU器件可以有效减小电路板占用面积和器件数量,因此特别适合应用在便携电子产品中。而且随着PMU对电源组控制的细分程度越高,PMU对系统各模块的供电控制更加精准,能够有效地降低电路系统的整体功耗。在现代的SoC中更是集成了PMU。其组成如下:Buck结构DC-DC电源(降压型稳压器);LDO低压差线性稳压电源;控制电路。
2026-03-30 09:46:14
38
原创 AI系统-28芯片功能安全之FSI
本文回顾了功能安全系列文章,重点介绍了ISO26262标准及其在汽车电子领域的应用。文章概述了ISO26262的12个部分内容,强调了功能安全对汽车软件复杂性的应对措施,包括风险等级分析、安全机制设计等。通过V字模型阐述了传统开发流程,并对比了国内快速开发的现状。文中详细讲解了功能安全需求管理模型、危害分析与风险识别方法,以及传感器、控制单元、执行器和通讯等环节的安全机制设计。最后,文章还涉及硬件和软件开发相关的安全措施,为汽车电子系统的功能安全提供了全面的指导框架。
2026-03-30 09:30:25
89
原创 AI系统-27芯片信息安全之HSM
本文介绍了安全启动中的硬件加速模块HSM(硬件安全模块)。HSM是一种独立的安全计算环境,包含CPU、加密加速器和存储器,用于密钥管理、加密运算和安全操作。文章详细阐述了HSM的概念、在汽车电子中的应用(如安全通信、固件更新和密钥管理),以及其与AUTOSAR架构的集成方式。此外,还分析了HSM的硬件组成,包括ARM处理器、加密加速器和真随机数生成器等核心组件,并以英飞凌AURIX芯片为例展示了HSM的具体实现。文章指出HSM在车控领域的重要性,同时探讨了其与TEE等替代方案的发展趋势。
2026-03-30 09:28:11
180
原创 AI系统-26芯片高速外设USB/ETH/PCIE等
参考《USB中文网》:https://www.usbzh.com/article/detail-344.html 这里基础知识很全面,有兴趣可以打开看看,篇幅有限,这里只简单介绍下。通用串行总线UniversalSerialBUSB)是连接电脑与设备的一种序列总线标准,也是一种输入输出(I/O) 连接端口的技术规范,广泛应用于个人电脑和移动设备等信息通信产品,并扩展至摄影器材、数字电视(机顶盒)、游戏机等其它相关领域。
2026-03-30 09:25:53
82
原创 AI系统-25芯片低速外设
然后根据配置信息对数据进行传输,在此过程中CPU不会介入。在数据传输完成后,DMA控制器就会发出中断信号,将总线控制权返还给CPU,至此就实现了一次DMA的数据传输。DMA发送数据如上图所示。DMA 存储传输的过程如下:配置用 DMA 传输数据到存储器,处理器发出操作DMA的指令/代码。DMA 控制器把数据从外设传输到存储器或从存储器到存储器,而让 CPU 腾出手来做其它操作。数据传输完成后,向 CPU 发出一个中断信号来通知它 DMA 传输可以关闭了。
2026-03-30 09:24:40
222
原创 AI系统-24芯片数据一致性
本文探讨了AI芯片系统中的数据一致性问题,分析了多核Cache不一致的根源及解决方案。文章指出,由于多级缓存的存在,不同核心访问数据时可能出现不一致,导致逻辑错误甚至系统崩溃。作者详细介绍了写直达和写回两种缓存更新策略的优缺点,并重点解析了MESI和MOESI协议如何通过状态机机制实现缓存一致性。此外,还介绍了CHI协议在多核系统中的实际应用,以及LLC(末级缓存)在提升数据存取效率中的作用。文章以ARM CMN600AE为例,从SoC视角系统阐述了数据一致性问题及其解决方案,为理解高性能计算芯片的缓存机制
2026-03-30 09:23:24
145
原创 AI系统-23AI芯片CPU子系统介绍
本文介绍了AI SoC中CPU子系统的架构设计,重点以ARM Cortex-A76AE为例进行分析。CPU子系统作为SoC的核心,包含处理器核心、中断控制器、缓存系统、内存控制器等关键组件。文章详细讲解了ARM Cortex-A76AE的微架构特点,包括其4发射超标量乱序执行、6个整数执行单元等设计,并强调了其在汽车电子领域的分裂锁定(Split-Lock)功能。同时介绍了DynamIQ共享单元(DSU)的作用,包括管理多核集群、共享L3缓存以及支持异构计算等特性。这些设计共同构成了现代高性能、低功耗且具备
2026-03-30 09:08:31
100
原创 AI系统-22AI芯片存储介绍
本文系统介绍了AI运算中各类存储技术的特性与应用。首先阐述了DDR与LPDDR的区别,前者适用于高性能计算,后者以低功耗见长;同时介绍了高带宽HBM的堆叠技术。其次对比了NAND Flash和NOR Flash,前者适合大容量存储,后者擅长代码执行。文章还分析了不同NAND工艺(SLC到PLC)在速度、容量上的演进。最后指出,AI时代对存储提出了"更大、更快、更小、更省电"的复合要求,需要根据应用场景合理选择SoC内部SRAM/efuse与外部DDR/Flash等存储方案。全文为AI系统
2026-03-29 15:06:44
5
原创 AI系统-21AI芯片之NoC总线
本文介绍了片上网络(NoC)在AI SoC中的重要性及其技术演进。随着SoC集成度提高和异构核数量增加,传统总线架构面临可扩展性差、通信效率低等问题。NoC借鉴分布式计算机通信方式,通过路由器和分组交换技术实现高效、可扩展的IP间通信。文章阐述了NoC的组成结构(网络适配器、链路、路由器)、常见拓扑(如2D/3D Mesh)及其优缺点,并指出NoC在5G、AI和自动驾驶等领域面临的高带宽数据流挑战。NoC通过优化通信架构,为复杂SoC提供了灵活、低功耗的解决方案,成为实现差异化设计的关键技术。
2026-03-29 15:05:26
202
原创 AI系统-20AI芯片ISP视觉系统介绍
本文介绍了摄像机工作原理及图像信号处理(ISP)的关键技术。人类通过五感感知世界,其中视觉最为重要。机器通过传感器模拟人类感知,而相机成像的核心是将光信号转换为电信号。文章详细讲解了相机成像流程:光线通过镜头进入图像传感器(SENSOR),CCD或CMOS传感器将光信号转换为电信号,生成拜耳阵列的原始数据(RAW Data)。重点阐述了ISP的功能,包括拜耳马赛克转换、黑电平补偿、镜头矫正等处理步骤,最终输出人类可识别的图像。ISP通过硬件和软件算法完成这些复杂的图像处理任务,是相机实现高质量成像的关键技术
2026-03-29 15:03:46
92
原创 AI系统-19具身智能/机器人介绍
文章摘要:本文探讨了人工智能发展的终极目标——打造具身智能机器人(Embodied AI),即拥有身体并能与环境交互的智能体。文章指出,ChatGPT和大语言模型的出现推动了具身智能的发展热潮,使其成为当前科技风口。具身智能的核心价值在于通过多模态感知、自主决策和执行能力,在特定领域超越人类。文章分析了产业趋势、技术挑战(感知、决策、执行)及落地难点,强调需要跨学科技术整合。最后指出,虽然目前具身智能尚处早期阶段,但资本和学术界已将其视为"第四次工业革命"的重要方向。(150字)
2026-03-29 15:02:43
90
原创 AI系统-18自动驾驶AI SoC芯片趋势
国产自动驾驶芯片发展迅速,正朝着异构计算、大算力方向演进。文章分析了自动驾驶SoC芯片的组成特点,指出其需集成CPU、GPU、NPU等多种处理器核,并配备高速存储和丰富外设接口。随着自动驾驶级别提升,算力需求呈指数增长(L2需2TOPS,L5需4000+TOPS)。技术趋势包括采用Chiplet设计降低工艺门槛,通过异构多核架构满足AI计算需求,以及使用LPDDR5/HBM等高速存储解决带宽瓶颈。目前地平线等企业已实现车控域、智驾域、座舱域的三域融合,推动着中央集中式架构的发展。
2026-03-29 15:01:44
256
原创 AI系统-17NPU架构设计介绍
首先为什么要有簇?一个AI计算任务,例如人脸识别需要大量的数据运算,那么要并行处理就需要对任务进行切片并行处理,那么一个子任务对应硬件的处理就是cluster,可以理解为多个cluster并行工作。那就要保证cluster有足够的资源可以应对子任务,NPU的Core就是PE集成了计算单元,但是单个PE可能应对不了一个子任务,并且相关配套的SRAM和调度以及低频率的运算需要CPU的参与。这就需要cluster是一个最小的战斗单元,例如行军打仗,这个单元需要有做饭的,有后勤,有医疗,各种兵种都有才可以。
2026-03-29 14:59:41
257
原创 AI系统-16AI SoC推理芯片架构介绍
数据的流动主要借助了片上系统中的I/O总线,例如上图中Arm提供的AMBA标准。采用DMA控制器则可以让外部数据直接被传送到存储器,无需经过中央处理器,这可以大大改善数据吞吐的效率。最近10年来,SoC设计的一个趋势是采用基于网络的拓扑结构,来提高片上通信的效率。这种基于路由的数据包互连网络称为“片上网络“(NoC),可以克服基于传统总线网络的带宽瓶颈。片上网络(NoC)相比传统的总线接口通信有什么优点和缺点?
2026-03-29 14:57:48
264
原创 AI系统-15国内AI芯片介绍
从封装上采用了双Die设计,就是晶圆上切下来的两个芯粒(硅材质),采用封装技术(加一个铁皮,引出来引脚)封装到一块,这样外面看就是一个大号的芯片在电路板上。好在封装技术相对芯片制造难度小些,国产可以搞定。应该华为就用了芯片堆叠封装的方式来规避性能的缺陷,都是被迫的创新。上图可见还封装了HBM(高速带宽内存),这个HBM为什么快?就是其用了3D技术,将多个DRAM芯片进行三维堆叠。
2026-03-29 14:56:15
262
原创 AI系统-14特斯拉FSD芯片
特斯拉FSD芯片发展历程与架构解析 特斯拉FSD芯片历经多次迭代,从早期依赖Mobileye到自研NPU架构。2019年推出的HW3.0搭载自研FSD芯片,采用14nm工艺,集成60亿晶体管,包含双NPU、12核CPU等模块,算力达144TOPS。最新HW4.0采用第二代FSD芯片,算力超300TOPS,CPU核心增至20个。芯片架构采用存算一体设计,核心包括: 双NPU加速器(32MB SRAM/个) 12核Cortex-A72 CPU集群 专用ISP图像处理器 NoC片上网络互联 安全功能岛等模块 该架
2026-03-29 13:18:38
258
原创 AI系统-13特斯拉AI芯片DOJO
特斯拉自研Dojo芯片突破AI算力瓶颈 摘要:特斯拉自主研发的Dojo超级计算芯片专为AI训练优化,采用独特的分布式架构设计。每块D1芯片集成354个计算核心,通过NoC总线实现10TB/s超高带宽互联。25颗D1芯片组成训练模组,算力达9PFLOPS,成本仅为GPU服务器的1/6。Dojo核心采用精简设计哲学,去除冗余功能,专注矩阵计算,单芯片提供1.024TFLOPS算力。通过自研通信协议和封装技术,Dojo实现芯片间4TB/s、模组间36TB/s的超高速数据传输。这种突破性的设计使AI训练时间从数月缩
2026-03-29 13:13:39
382
原创 AI系统-12谷歌跨时代AI芯片TPU
本文介绍了谷歌TPU芯片的发展历程与技术架构。TPU作为谷歌专为AI计算设计的ASIC芯片,从2015年首代仅支持推理的TPU v1,到支持训练、采用3D互连的TPU v4,已迭代至第七代。初代TPU通过脉动阵列架构和低精度计算实现高效推理,后续版本在制程工艺、互连方式和算力上持续突破。TPU采用专用硬件设计,相比CPU/GPU能更高效执行矩阵运算,其创新源于谷歌"创意精英"文化和技术快速迭代能力。移动端Edge TPU的推出,为智能设备应用奠定基础。TPU的发展展现了谷歌在AI芯片领域
2026-03-26 10:56:17
9
原创 AI系统-11AI芯片基础NPU
NPU(Neural network Processing Unit), 即神经网络处理器。顾名思义,是想用电路模拟人类的神经元和突触结构。NPU是神经网络处理器,在电路层模拟人类神经元和突触,并且用深度学习指令集直接处理大规模的神经元和突触,一条指令完成一组神经元的处理。相比于CPU和GPU的冯诺伊曼结构,NPU通过突触权重实现存储和计算一体化,从而提高运行效率。但NPU也有自身的缺陷,比如不支持对大量样本的训练。什么是算力?算力不是一个计算机的专业术语,感觉更多的是汇报用的,现在大家都在用。
2026-03-26 10:53:41
158
原创 AI系统-10AI芯片介绍2
AI芯片与异构计算技术发展 本文系统介绍了GPU、NPU和异构计算技术的发展与应用。GPU从最初的图形处理器发展为高性能并行计算平台,通过CUDA和OpenCL实现了通用计算能力。相比CPU,GPU具有更强的并行处理能力和专门优化的内存架构。随着AI技术发展,专用NPU芯片应运而生,采用特定领域架构优化矩阵运算,如谷歌TPU、华为昇腾等。AI芯片设计需平衡算力、存储、功耗等九大要素,训练芯片注重算力精度,推理芯片侧重功耗成本。异构计算通过整合CPU、GPU、NPU等不同架构实现性能飞跃,如特斯拉FSD芯片,
2026-03-26 10:51:01
131
原创 AI系统-9AI芯片基础CPU
本文回顾了CPU的基本组成与工作原理,指出计算机体系结构的基础理论早在《计算机组成原理》课程中就已奠定。CPU主要由算术逻辑单元(ALU)、存储单元(寄存器)和控制单元(CU)三部分组成,通过取指、解码、执行、写回四个步骤完成指令周期。文章比较了x86和ARM架构在不同应用场景下的优劣势,并强调现代计算需求已超出传统CPU顺序执行的能力范围,推动GPU、NPU等专用处理器的发展。全文揭示了计算机技术发展本质上是基础理论的组合创新,而非根本性突破。
2026-03-26 10:49:00
106
原创 AI系统-8AI芯片介绍1
本文介绍了AI芯片的分类、发展趋势及关键技术指标。AI芯片主要分为CPU、GPU、FPGA和ASIC四类,其中ASIC因定制化设计在特定领域表现最优。按照应用场景可分为云端和边缘端两类,云端侧重训练与推理,边缘端侧重推理应用。AI计算的核心是权重求和操作,90%的计算量来自乘加运算(MAC)。AI芯片设计需支持神经网络计算逻辑、高维张量存储与灵活配置接口。关键指标包括算力、能效比和内存带宽等,ASIC芯片因定制化设计在性能和功耗上具有优势。随着AI技术发展,领域特定架构(DSA)将成为未来趋势,通过优化并行
2026-03-26 10:47:38
271
原创 AI系统-7Pytorch数字识别实战及算子介绍
参考:https://zhuanlan.zhihu.com/p/101799677当前深度学习的框架有很多,其中较为出名的是Google的TensorFlow、Facebook的PyTorch,还有就是百度的paddlepaddle。今天我们拿比较简单的PyTorch来进行入门的学习。PyTorch是一个基于Torch的Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebook的人工智能研究小组开发。
2026-03-26 10:46:00
300
原创 AI系统-6从Transformer大模型到端到端自动驾驶算法
大型语言模型(LLM)的创建并非一蹴而就。语言模型的第一个概念始于被称为自然语言处理(NLP)的基于规则的系统。这些系统遵循预定义的规则,根据文本输入做出决策并推断结论。这些系统依靠if-else语句处理关键字信息,并生成预定的输出。可以将其想象成一个决策树,如果输入包含X、Y、Z或没有包含这些字母,则输出则是预先确定的响应。例如:如果输入包含关键字“母亲(mother)”,则输出“你母亲怎么样了?否则,输出“你能详细说明一下吗?语言建模的研究始于20世纪90年代,最初采用了统计学习。
2026-03-26 10:43:49
333
原创 AI系统-5深度学习的基础:矩阵运算
本文介绍了神经网络中的矩阵运算及其在深度学习中的应用。首先阐述了神经网络作为复合函数的概念,以及如何通过矩阵运算处理图像等数据。重点讲解了CNN卷积神经网络通过卷积核提取图像局部特征,结合池化层减少参数数量,实现高效图像识别。针对自然语言处理,介绍了RNN循环神经网络及其词嵌入技术,将文字转换为高维向量表示。最后提及Transformer的自注意力机制,突破RNN的顺序计算限制。文章通过简明易懂的方式串联起深度学习的核心概念,直达TensorFlow等前沿技术。
2026-03-26 10:40:22
351
原创 AI系统-4神经网络的基础:函数
本文通过通俗易懂的方式介绍了神经网络的基础知识。首先从函数预测出发,说明传统符号主义难以处理复杂问题,而神经网络采用"连蒙带猜"的联结主义方法,通过线性变换和非线性激活函数的叠加来拟合复杂数据。然后讲解了神经网络参数的训练过程,包括损失函数、梯度下降法和反向传播算法。最后讨论了防止过拟合的调参技巧,如数据增强、正则化和Dropout等方法。文章通过大量示意图和类比,帮助读者理解神经网络的核心概念和工作原理,适合初学者快速掌握AI基础。
2026-03-26 10:38:22
310
原创 AI系统-3全栈架构介绍
算法应用在之前的文章AI系统-2AI算法介绍中有介绍。其负责提供用户前端的AI 编程语言,接口和工具链。这一层尽可能让用户表达目标任务与 AI 算法,尽量少让用户关注底层实现。网络模型构建:卷积神经网络 CNN、循环神经网络 RNN、Transformer 结构等,包括 if else 控制流等基本结构和算子支持与实现的 API。语言的基本语法和框架的 API 接口提供基本算子的支持。
2026-03-26 10:35:45
298
原创 AI系统-2AI算法介绍
了解AI算法其实就是了解AI是怎么工作的,看似很神奇的可以智能控制对话等,其内部原理是什么样,本章节进行一个简单的介绍。本文主要参考ZOMI酱的:https://chenzomi12.github.io/01Introduction/02Develop.html。
2026-03-24 10:45:54
290
原创 AI系统-1AI的应用和历史
今年(2025年)过年期间,相信大家都被deepseek刷屏了。之前的ChatGPT大语言模型的智慧涌现能力,让时间看到AI智能机器人逼近奇点,突破图灵测试快成为了可能。而deepseek引入了深度思考模式以及广泛使用汉语进行训练,更加大大的增强了其逻辑思维能力。这场AI模型大战可能最后比拼的是人类的语言和文字架构,而汉语是象形文字比英语的音形文字更加的适应于AI,因为英语大量的造新单词,从而之前的单词被抛弃无法传承知识,而且英语单词里面包含的信息密度比较低。
2026-03-24 10:42:28
278
原创 SoC入门-2芯片研究框架(下)
本文是下篇,主要集中在汽车SoC芯片和终端SoC芯片上的介绍,上篇参考之前的:SoC入门-1芯片研究框架(上)参考海通国际的研报《芯片研究框架》,pdf下载:https://pdf.dfcfw.com/pdf/H3_AP202209091578190354_1.pdf?1662756207000.pdf汽车半导体涵盖了汽车芯片、功率器件、传感器等重要电子零部件。汽车的计算芯片包括传统的MCU芯片和SoC芯片。MCU芯片一般包含CPU一个处理器单元;而汽车SoC一般包含多个处理单元。ECU(Electroni
2026-03-24 10:04:05
378
原创 SoC入门-1芯片研究框架(上)
1.CPU应该大家都不陌生,intel、AMD、ARM这些。但是实际的芯片里面却是使用的SoC,SoC是什么?片上系统SoC(System on Chip),即在一块芯片上集成一整个信息处理系统,简单来说 SoC芯片是在中央处理器CPU的 基础上扩展音视频功能和专用接口的超大规模集成电路,是智能设备的“大脑”。2.SoC的优势是什么?随着半导体工艺的发展,传统MCU已经不能完全满足智能终端的需求,SoC应运而生,凭借其性能强、功耗低、灵活度 高的特点,使单芯片能够完成完整的电子系统。
2026-03-24 10:00:43
327
原创 自动驾驶芯片入门-国内外主流厂商介绍
作为一个,表面上犹如,但是很快这场竞争已经进入,很快就会角逐出一些少数胜利者,大家的方案也会趋向于胜利者的去设计。对于国家就是要扶持一个,从而由点及面的推动全社会产业的升级发展,目前来说上用到的技术比较先进,且汽车产业能拉动的产业也比较多,所以对于来说其就是一个重点扶持对象,其中复杂的更是难于攻克,我们需要才能顺应时代潮流,在一生有限的时间内作出一些成就,一段话分享给大家:一个要跟一个绑定,一个要跟一个绑定,一个要跟绑定。介绍了一些基础知识,本篇就来介绍下国内外的一些及。
2026-03-24 09:56:32
341
原创 自动驾驶芯片入门-基础概念和架构
ADAS 全称,又称高级驾驶辅助系统,主要依靠包括视觉摄像头、毫米波雷达、计算平台的组合来实现自动驾驶辅助功能。ADAS涉及到12门技术,主要基于三种传感器——摄像头,雷达,激光雷达。在这12门技术中,组合出了感知,控制,决策这自动驾驶三大模块。ADAS的历史最早可以追溯到1948年,机械工程师Ralph Teetor发明了第一款“定速巡航”系统。传感器是车辆感知系统收集环境信息、车辆自身状态信息和位置信息等的重要手段。自动驾驶车辆所配备的传感器可以分为三类:自感知传感器。
2026-03-23 10:16:48
290
原创 NVIDIA ADAS-英伟达Orin芯片介绍
以 Orin-x 为例,其中的 CPU 包括基于的主CPU 复合体,它提供通用高速计算能力;以及基于的功能安全岛(FSI),它提供了隔离的片上计算资源, 减少了对外部 ASIL D 功能安全 CPU 处理的需求。GPU 则是,为 CUDA 语言提供高级并行处理计算能力,并支持多种工具, 如 TensorRT,一种深度学习推理优化器和运行时,可提供低延迟和高吞吐量。Ampere 还提供最先进的图形功能,包括实时光线跟踪。
2026-03-23 10:14:21
307
原创 NVIDIA ADAS-英伟达DriveOS入门
上图中将自动驾驶分为L0-L5级六种不同级别,根据“开启自动驾驶功能后,驾驶员是否应该处于驾驶状态”这一标准,自动驾驶以L3级为分界线,分为辅助驾驶和自动驾驶。理论上讲,只有L3级以上 (包括L3级)才能称之为自动驾驶。自动驾驶汽车定义:搭载先进车载传感器、控制器、执行器等装置,并融合现 代通信与网络技术,具备复杂环境感知、智能决策、协同控制等功能,实现车与 X(人、车、路、云端等)智能信息交换、共享,并最终可实现替代人来操作的 新一代汽车。自动驾驶汽车又被称为智能网联汽车。
2026-03-23 10:12:22
315
原创 芯片-设计流程入门
芯片设计分为两部分,前端(逻辑设计)和后端(物理设计)。这其中很多流程看似高大上,但是有IP供应商提供的工具以后,其实就是界面上点点的事情。芯片设计中涉及的工具繁多,基本都是老外的,这需要国内芯片公司的崛起,有自己的很多IP后才可以投入到这些工具的研发中去。有一个说法就是老外掌握一项新技术,首先就是加密做界面化,不提供源码然后商业卖钱。而这个周期要延迟一两年到市场上,而中国则直接推给自己的客户,客户有能力抄的就抄跑了,大家都不太注重商业保密,可能技术比较low不用藏着掖着,大家都是抄的。。。
2026-03-23 10:10:53
368
原创 英伟达系列芯片如何用于自动驾驶开发之(二):硬件电源设计
Orin-x系列芯片电源包含一个电源序列 VRS-10,高电流电压矫正器(HCVR)VRS-11,VRS-12 电压监视器和电流电压矫正器(LCVR),VRS-10 提供了基于多电压矫正器的事件测序输出, 这样就可以存储到六个 OTP 序列用于上下电,SC7 的进入/退出。安全的 MCU 可用于功能安全,其中包含监控和控制 Orin 芯片的电源轨进入。因此,本文针对英伟达系列芯片的底层硬件架构所涉及的硬件启动和电源设计将给出详细的原理分析,并通过在自动驾驶系统的设计应用实例给出相应的电源及架构设计策略。
2026-03-23 10:04:56
311
Android 底层接口与驱动开发技术详解
2018-05-23
嵌入式Linux应用开发完全手册
2018-05-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅