runtime实时®ister寄存器&boot启动
文章平均质量分 90
runtime实时&register寄存器&bootloader启动
普通网友
这个作者很懒,什么都没留下…
展开
-
主流X86-ARM-RISC-V-MIPS芯片架构分析
主流X86-ARM-RISC-V-MIPS芯片架构分析原创 2022-08-12 05:08:36 · 2350 阅读 · 0 评论 -
LLVM编译技术应用分析
LLVM编译技术应用分析原创 2022-08-04 06:01:39 · 2141 阅读 · 0 评论 -
H.265 HD 和H.265 4K Video Encoder IP Core
H.265 HD 和H.265 4K Video Encoder IP CoreH.265 HD Video Encoder IP Core(H.265 HD Video/Audio Encoder IP Core)H.265 4K Video Encoder IP Core (H.265 4K Video/Audio Encoder IP Core)一.H.265 HD Video Encoder IP Core(H.265 HD Video/Audio Encoder IP Core)The H原创 2020-06-24 13:17:09 · 708 阅读 · 1 评论 -
编译器设计-代码优化
编译器设计-代码优化Compiler Design - Code Optimization优化是一种程序转换技术,它试图通过使代码消耗更少的资源(如CPU、内存)来改进代码,并提供高速。在优化中,高级通用编程结构被非常高效的低级编程代码所代替。代码优化过程必须遵循以下三条规则:输出代码无论如何不能改变程序的含义。优化应该提高程序的速度,如果可能的话,程序应该需要更少的资源。优化本身应该是快速的,不应该延迟整个编译过程。优化代码的工作可以在编译过程的不同级别进行。在开始时,用户可以更改/重新排原创 2020-06-24 09:27:58 · 506 阅读 · 0 评论 -
编译器设计-代码生成
编译器设计-代码生成Compiler Design - Code Generation代码生成可以看作是编译的最后阶段。通过后代码生成,优化过程可以应用到代码上,但这可以看作是代码生成阶段本身的一部分。编译器生成的代码是一些低级编程语言(例如汇编语言)的目标代码。我们已经看到,用高级语言编写的源代码被转换为低级语言,从而生成低级目标代码,该目标代码应至少具有以下属性:它应该具有源代码的确切含义。它应该在CPU使用和内存管理方面是高效的。现在我们将看到如何将中间代码转换为目标对象代码(在本例中是汇编原创 2020-06-24 08:48:42 · 709 阅读 · 0 评论 -
编译器设计-符号表-中间代码生成
编译器设计-符号表-中间代码生成Compiler Design - Symbol TableCompiler - Intermediate Code Generation一.Compiler Design - Symbol Table符号表是编译器为存储变量名、函数名、对象、类、接口等各种实体的出现情况而创建和维护的一种重要的数据结构。符号表既可用于编译器的分析部分,也可用于编译器的综合部分。符号表可用于以下目的,具体取决于所使用的语言:将所有实体的名称以结构化形式存储在一个位置。以验证是否已原创 2020-06-24 07:50:34 · 1425 阅读 · 0 评论 -
编译器设计-RunTime运行时环境
编译器设计-RunTime运行时环境Compiler Design - Run-Time Environment作为源代码的程序仅仅是文本(代码、语句等)的集合,要使其活动,它需要在目标计算机上执行操作。程序需要内存资源来执行指令。程序包含程序名、标识符等,运行时需要与实际内存位置进行映射。所谓运行时,我们指的是正在执行的程序。运行时环境是目标机器的一种状态,它可以包括软件库、环境变量等,为系统中运行的进程提供服务。运行时支持系统是一个包,主要由可执行程序本身生成,有助于进程与运行时环境之间的进程通原创 2020-06-24 06:27:06 · 620 阅读 · 0 评论 -
将深度学习低延迟推理性能提高一倍
将深度学习低延迟推理性能提高一倍JetPack 3.1 Doubles Jetson’s Low-Latency Inference PerformanceNVIDIA发布了JetPack 3.1,这是Jetson TX1和TX2的生产Linux软件版本。通过对TensorRT2.1和cuDNN 6.0的升级,JetPack 3.1为实时应用(如视觉引导导航和运动控制)提供了高达2倍的深度学习推理性能,这得益于加速批量大小1。改进后的功能使Jetson比以往任何时候都能部署更大的智能,使一代自主机器包原创 2020-06-22 14:35:01 · 954 阅读 · 0 评论 -
10分钟内基于gpu的目标检测
10分钟内基于gpu的目标检测Object Detection on GPUs in 10 Minutes目标检测仍然是自动驾驶和智能视频分析等应用的主要驱动力。目标检测应用程序需要使用大量数据集进行大量训练,以实现高精度。NVIDIA gpu在训练大型网络以生成用于对象检测推断的数据集所需的并行计算性能方面表现优异。本文介绍了使用NVIDIA gpu快速高效地运行高性能目标检测管道所需的技术。我们的python应用程序从实时视频流中获取帧,并在gpu上执行对象检测。我们使用带有Inception V原创 2020-06-22 08:41:06 · 694 阅读 · 0 评论 -
基于TensorRT车辆实时推理优化
基于TensorRT车辆实时推理优化Optimizing NVIDIA TensorRT Conversion for Real-time Inference onAutonomous Vehicles自动驾驶系统使用各种神经网络模型,这些模型要求在GPU上进行极其精确和高效的计算。Zoox是一家全新开发robotaxis的初创公司,充分利用了NVIDIA硬盘的高性能、节能计算功能。最近,Zoox在旧金山发布了一个一小时的全自动驾驶,详细展示了他们的AI堆栈。与TensorFlow相比,NVIDI原创 2020-06-22 06:52:51 · 436 阅读 · 0 评论 -
基于OpenSeq2Seq的NLP与语音识别混合精度训练
基于OpenSeq2Seq的NLP与语音识别混合精度训练Mixed Precision Training for NLP and Speech Recognition withOpenSeq2Seq迄今为止,神经网络的成功建立在更大的数据集、更好的理论模型和缩短的训练时间上。特别是顺序模型,可以从中受益更多。为此,我们创建了OpenSeq2Seq——一个开源的、基于TensorFlow的工具包。OpenSeq2Seq支持一系列现成的模型,其特点是多GPU和混合精度训练,与其他开源框架相比,大大缩短了训原创 2020-06-21 10:32:21 · 729 阅读 · 1 评论 -
用NVIDIA-NGC对BERT进行训练和微调
用NVIDIA-NGC对BERT进行训练和微调Training and Fine-tuning BERT Using NVIDIA NGC想象一下一个比人类更能理解语言的人工智能程序。想象一下为定制的域或应用程序构建自己的Siri或Google搜索。Google BERT(来自Transformers的双向编码器表示)为自然语言处理(NLP)领域提供了一个改变游戏规则的转折点。BERT运行在NVIDIA GPUs驱动的超级计算机上,训练其庞大的神经网络,达到前所未有的NLP精度,冲击了已知人类语言理原创 2020-06-21 06:31:51 · 530 阅读 · 0 评论 -
快速人体姿态估计:CVPR2019论文阅读
快速人体姿态估计:CVPR2019论文阅读Fast Human Pose Estimation论文链接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Zhang_Fast_Human_Pose_Estimation_CVPR_2019_paper.pdf摘要现有的人体姿态估计方法通常只考虑如何提高模型的泛化性能,而忽略了显著的...原创 2020-04-15 18:56:46 · 497 阅读 · 0 评论 -
实时实例分割的Deep Snake:CVPR2020论文点评
实时实例分割的Deep Snake:CVPR2020论文点评Deep Snake for Real-Time Instance Segmentation论文链接:https://arxiv.org/pdf/2001.01629.pdf摘要本文提出了一种基于轮廓的深度snake方法用于实例的实时分割。与最近一些直接从图像中回归物体边界点坐标的方法不同,deep snake使用神经网络迭代地...原创 2020-03-25 19:46:59 · 1290 阅读 · 0 评论