自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(230)
  • 收藏
  • 关注

原创 小爱音箱解锁新玩法!远程点歌太方便了

XiaoMusic 让小爱音箱实现本地音乐自由,cpolar 则进一步拓展了使用边界,无需复杂配置就能远程访问。两者结合让普通家庭也能轻松搭建灵活的私人音乐系统,提升了智能家居的实用价值,操作简单且性价比高。

2026-03-19 20:43:29 201 25

原创 数据库SQL防火墙构建主动防御,让恶意SQL无处遁形

而金仓数据库SQL防火墙,直接在数据库内核层“设卡查验”,无论应用层是否有疏忽,所有SQL语句都必须经过它的“法眼”才能放行。金仓数据库(KingbaseES)V009R002C014版本内置的SQL防火墙,给出了一种更聪明的答案——从数据库内核层构建主动防御,让恶意SQL无处遁形,安全团队从此告别“亡羊补牢”,真正实现“规则先行”。数据安全,不再是事后补救的“打补丁”,而是事前规划的“筑城墙”。金仓数据库SQL防火墙,为每一笔数据访问把好关,让企业数据在充满风险的数字世界中,始终处于安全的境地。

2026-03-18 20:37:39 11988 25

原创 光学与机器视觉:解锁“机器之眼”的核心密码-《第五届光学与机器视觉国际学术会议(ICOMV 2026)》

光学是机器视觉的基础,没有光学的精准成像,就没有机器视觉的智能解读;机器视觉是光学的延伸,没有机器视觉的算法支撑,光学采集的影像也无法发挥实际价值。二者的“双向奔赴”,不仅让机器拥有了“看世界”的能力,更在重塑产业格局、改变我们的生活。从工业4.0的智能制造,到民生领域的便捷服务,再到前沿科技的不断突破,光学与机器视觉的融合,正在解锁一个又一个“不可能”。未来,随着技术的持续升级,我们有理由相信,这对“黄金搭档”将继续赋能各行各业,让机器更智能、生产更高效、生活更便捷,用“光”的力量,照亮科技前行的道路。

2026-03-17 14:37:03 371 7

原创 告别SQL性能焦虑:教你如何解决

你是否遇到过这样的场景:一个看似复杂的SQL,在测试环境运行飞快,一到生产环境就“卡死”,一查执行计划,发现子查询生成了一个巨大的中间结果集,导致后续操作全部陷入性能泥潭?这项技术也体现了国产数据库内核研发从“功能实现”到“深度优化”的演进,是国产数据库在面对企业级复杂应用时,提供高性能、智能化体验的一个关键缩影。金仓数据库的解决方案没有采用简单的“暴力下推”,而是设计了一个严谨的 “先判定,再评估” 自动化决策框架。先全表扫描64400行,生成32200行的中间结果,再Hash Join。

2026-03-14 13:00:48 11132 36

原创 基于Rokid灵珠AI平台的春节全能助手智能体开发实践

本次开发基于Rokid灵珠AI平台,聚焦春节高频的抢票出行、路线规划、年货比价核心场景,搭建轻量化春节全能助手智能体,通过平台可视化工作流编排实现功能逻辑串联;因无Rokid Glasses实物,智能体完成灵珠平台内对话测试验证,眼镜端适配仅编写伪代码实现逻辑预留,整体开发聚焦平台核心的智能体配置与工作流开发能力,实现低门槛、高适配的春节场景AI应用落地。本次基于Rokid灵珠AI平台的春节出行助手智能体开发,充分利用了平台零门槛、无代码、全栈化。

2026-03-06 21:36:10 804 15

原创 第九届先进电子技术、计算机与软件工程国际学术会议(AETCSE 2026)

软件工程是研究软件开发方法、工具和管理技术的一门学科,其主要目标是提高软件质量、降低开发成本并提升开发效率。结构化开发阶段强调模块化设计和结构化编程。面向对象开发阶段通过类和对象实现系统建模。敏捷开发阶段强调快速迭代与持续改进。

2026-03-05 21:17:38 749 5

原创 从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

最近基于openJiuwen框架,用它最新推出的独立记忆库功能,搭建了一个“专业职配助手”智能体。它不仅能依托行业知识库给出专业-岗位匹配建议,更能通过记忆库记住用户的专业背景、职业偏好,实现跨智能体的个性化推荐。今天就把从模型配置到智能体测试的全流程拆解给你,重点聊聊记忆库如何让AI真正“懂你”。知识库是广度:没有高质量的行业数据,智能体就会泛泛而谈,精确的知识库,内容更加规范,具有可信度;记忆库是温度:没有用户记忆,智能体就只能给出通用答案,缺乏个性化;openJiuwen的新特性是效率。

2026-03-04 18:32:21 22069 28

原创 【硬核入门】无需板卡也能造 AI 算子?深度玩转 CANN ops-math 通用数学库

不要因为ops-math的名字里带有“基础”二字就轻视它。它是连接数学公式与硅基算力的桥梁。如果你想从零开始成为一名AI 系统工程师,或者想深入理解 AIGC 到底是如何“算”出来的,那么请立即 Clone 这个仓库,开启你的硬核编译之旅。

2026-02-06 21:54:28 975 5

原创 AIGC 的隐形基石:从 ops-math 开始掌控算力

在 AIGC(生成式人工智能)的宏大叙事中,我们往往沉迷于 Transformer 的 Attention 机制或 Diffusion 的去噪过程。但如果剥开这些复杂架构的外衣,你会发现,驱动大模型运转的每一行代码,最终都回到了最基础的数学运算。如果说ops-nn是构建大模型的“预制板”,那么ops-math就是粘合一切的“水泥”和“砖块”。今天,我们深入解读 AtomGit 上的仓库。这不仅是一个通用数学算子库,根据最新的仓库动态,它正在成为开发者入门昇腾(Ascend)算子开发的最佳“练兵场”。

2026-02-06 21:50:19 727 1

原创 打通 AI 与信号处理的“任督二脉”:Ascend SIP Boost 加速库深度实战

的出现,标志着昇腾生态不再局限于狭义的“AI 模型”,而是向泛计算领域迈出了关键一步。对于正在探索5G/6G 通信 AI 化自动驾驶雷达感知的开发者来说,这个库是打通物理世界信号与数字智能世界的关键桥梁。它告诉我们:NPU 不仅能画画写诗,也能捕捉电波的每一次跳动。

2026-02-06 21:41:25 511 1

原创 【硬核拆解】从“算子拼凑”到“极致加速”:Ascend Transformer Boost (ATB) 代码级实战解析

不仅仅是一个加速库,它是一套现代化的LLM 推理编程范式。它用优雅的 C++ 抽象,屏蔽了底层 NPU 的硬件细节,让上层框架(如 MindIE, PyTorch)能够以最低的成本接入昇腾的澎湃算力。如果你想深入理解大模型推理引擎的内部构造,ATB 的源码绝对是最佳的教科书。

2026-02-06 21:34:43 855 1

原创 SiP库:CANN生态赋能AIGC信号处理的高性能加速利器

在AIGC多模态生成技术向音频、视频、语音等场景深度渗透的过程中,信号处理成为不可或缺的核心环节——从AIGC音频生成的频域分析、语音合成的信号滤波,到视频生成的帧插值优化,每一步都离不开大量复杂的信号运算,其效率直接决定了AIGC多模态内容的生成质量与响应速度。Ascend Signal Processing Boost(昇腾信号处理加速库,下文简称SiP库),正是基于华为Ascend AI处理器打造的专用信号处理加速库。

2026-02-06 21:28:20 684 2

原创 大模型推理的“氮气加速系统”:全景解读 Ascend Transformer Boost (ATB)

在 AIGC 的赛道上,如果说提供了高性能的零部件(算子),那么如何将这些零部件组装成一台百公里加速 3 秒的超跑,则需要更高级的“整车架构”。面对日新月异的 LLM(大语言模型)架构——从 Llama 到 Qwen,再到 MoE 架构的 DeepSeek,开发者面临着一个巨大的挑战:单纯优化某一个矩阵乘算子,已经无法满足复杂的端到端推理需求。我们需要一个能管理上下文、编排计算图、还能灵活接入新特性的中间层。今天,我们深入 AtomGit 上的。

2026-02-06 21:17:48 761 1

原创 Ops-Transformer:CANN生态赋能AIGC的Transformer专用加速库

当前AIGC多模态生成技术的规模化落地,核心离不开Transformer架构的支撑——从文本生成、图文联动到音视频创作,LLaVA、GPT、Stable Diffusion等主流AIGC模型,均以Transformer为核心骨架,其运算效率直接决定了AIGC应用的响应速度、部署成本与规模化能力。

2026-02-06 21:05:01 667 1

原创 不仅是 FlashAttention:揭秘 CANN ops-transformer 如何重构大模型推理

不仅仅是一个库,它是华为昇腾团队对 Transformer 架构数年研究的心血结晶。它将复杂的系统工程问题,封装成了简单易用的 API。在这个算力为王的时代,谁能更高效地利用硬件,谁就能在 AIGC 的赛道上跑得更远。现在就点击下方链接,探索这个大模型的“极速引擎”吧!

2026-02-06 20:58:53 759 1

原创 Ops-Transformer深入:CANN生态Transformer专用算子库赋能多模态生成效率跃迁

当AIGC多模态生成技术迈入规模化落地阶段,文本生成、图文联动、音视频生成等场景的核心支撑,早已离不开Transformer架构——从LLaVA的图文理解、GPT系列的文本生成,到Stable Diffusion的文本编码,几乎所有主流AIGC模型都以Transformer为核心骨架,其运算效率直接决定了AIGC应用的落地体验与规模化能力。在昇腾CANN生态中,ops-transformer作为Transformer架构专用计算算子库,正是为解决AIGC场景中Transformer运算痛点而生。

2026-02-06 20:56:30 1045

原创 Ops-NN×AIGC实战博客:CANN生态神经网络算子库赋能多模态生成效率跃迁

当AIGC多模态生成技术从实验室走向产业化,从文本生成图像、语音生成视频到多模态内容创作,背后始终离不开深度神经网络的算力支撑——AIGC模型(如Stable Diffusion、LLaVA)的核心是复杂的神经网络结构,其训练与推理过程需要海量的神经网络运算(卷积、注意力机制、激活函数等),而算力效率、部署适配性直接决定了AIGC应用的落地效果。在昇腾CANN生态中,ops-nn作为神经网络领域的专用计算算子库,正是为解决AIGC神经网络运算痛点而生。

2026-02-06 20:46:56 797 1

原创 打破集群通信“内存墙”:手把手教你用 CANN SHMEM 重构 AIGC 分布式算子

在 AIGC 大模型训练与推理的深水区,算力往往不是唯一的瓶颈,通信才是。当我们在 Atlas 800I A2 集群上训练千亿参数模型时,传统的 MPI(Message Passing Interface)通信模式——即“发送-接收”的双边通信,往往因为协议栈的软件开销(Software Overhead)过大,导致宝贵的 AI Core 经常处于“等数据”的饥饿状态。如何让分布在不同 NPU 卡上的内存像“一家人”一样无缝互访?AtomGit 上的 CANN/shmem仓库给出了答案。

2026-02-06 20:35:05 995 1

原创 Ops-CV库介绍:赋能AIGC多模态视觉生成的加速利器

Ops-CV是昇腾CANN生态专属的视觉算子库,核心定位是为视觉处理任务提供高效、轻量化的昇腾NPU原生加速能力,其不仅覆盖传统计算机视觉全流程,更深度适配当前AIGC多模态生成场景(图像生成、图文联动生成、AIGC内容优化等),成为连接AIGC模型与昇腾硬件的核心桥梁,解决AIGC视觉生成中“耗时高、适配难、算力利用率低”的核心痛点,助力AIGC多模态应用快速落地。

2026-02-06 20:31:44 911 1

原创 【极客深读】打破“显存孤岛”:揭秘 CANN SHMEM 如何引爆集群的分布式算力

在 AIGC 大模型时代,“单卡打天下”的日子早已一去不复返。当参数量飙升至千亿级别,如何让成百上千张 NPU 卡像“一个超级大脑”一样协同工作,成为了算力系统的核心挑战。通常我们提到分布式通信,首先想到的是 HCCL(华为集合通信库)。但在某些追求极致微操的细粒度通信场景下,开发者渴望一种更直接、更低延迟的内存互访机制。今天,我们深入 AtomGit 上的 CANN/shmem仓库,解读这个基于 OpenSHMEM 标准打造的“秘密武器”,看它如何打通昇腾设备间的“任督二脉”。

2026-02-06 20:26:47 632 7

原创 基于CANN的ops-cv仓库-多模态场景理解与实践

ops-cv作为多模态视觉场景的“核心加速引擎”,凭借NPU适配、跨模块联动与轻量化优势,高效解决产业痛点,助力图文检索、自动驾驶等场景快速落地。落地效果:单张标注延迟从35ms降至12ms,准确率92%,功耗12W降至7W,内存≤250MB。以“智能图文检索”为场景,提供核心伪代码,涵盖批量图像预处理、特征提取、文本匹配全链路,可直接复用,全程NPU端执行,避免数据拷贝开销。ops-cv与CANN生态深度联动:复用ACL底层接口,与ops-nn协同实现端到端加速,支持昇腾多模态SDK对接。

2026-02-06 20:21:03 720

原创 AIGC 爆发之下,如何榨干 NPU 的每一滴性能?—— 带你了解 CANN ops-nn

AIGC 的竞争,归根结底是效率的竞争。通过 AtomGit 上的 CANN 开源社区,我们不仅能直接使用这些高性能算子,更能通过阅读源码,洞悉高性能计算(HPC)的精髓。如果你想让你的 AI 应用跑得比别人更快,不妨现在就 Clone 下来,从第一行代码开始,重新认识 NPU。

2026-02-06 20:03:41 750

原创 Ops-CV解读:自定义算子开发与NPU性能调优

ops-cv已覆盖图像预处理、目标检测后处理等通用场景,但在工业质检、特种安防、医疗影像等定制化场景中,通用算子往往无法满足需求:例如工业场景中需要的“缺陷边缘细化”算子、医疗影像中“病灶区域增强”算子,均属于特殊业务逻辑,无法通过现有算子组合实现高效运算。而基于ops-cv开发自定义算子,核心优势在于“硬件原生适配”——无需从零开发硬件对接逻辑,可直接复用ops-cv的内存管理、指令优化框架,让自定义算子快速获得昇腾NPU的加速能力,相比CPU实现,性能可提升10~20倍,同时大幅降低开发成本。

2026-02-06 19:57:52 1074

原创 从图像预处理到目标检测:Ops-CV 助力 CV 任务在NPU 上高效运行

ops-cv通过精准的张量生命周期管理,复用已释放的内存空间存储新的中间结果,例如在IoU计算时,复用输入框的内存存储计算结果,内存占用减少35%,尤其适合边缘设备的低内存场景。:在某车企的自动驾驶域控制器中,基于ops-cv构建的图像预处理流水线,将摄像头输入的1920×1080图像预处理延迟从20ms降至5ms,结合目标检测模型的优化,整体系统帧率从15FPS提升至30FPS,满足实时感知需求。算子实现了高效的数据增强,让目标检测模型的精度提升2%,同时预处理延迟降低30%,支持更多路视频的实时分析。

2026-02-06 19:48:06 1037 1

原创 基于CANN的ops-math仓库:AI计算的数学基石

对于有特殊数学运算需求的开发者(如科研团队、企业算法工程师),ops-math仓库提供了灵活的自定义算子开发框架:例如,某科研团队在开展量子机器学习研究时,需要实现一种自定义的量子态演化数学算子,该算子不属于仓库的现有算子。开发者可基于ops-math仓库提供的开发模板,填充量子态演化的运算逻辑,利用仓库的编译工具链,自动适配昇腾NPU的硬件指令,无需手动编写硬件适配代码。同时,借助仓库的自动化验证用例库,快速完成算子的精度与性能验证,仅用3天就完成了原本需要2周的自定义算子开发工作,大幅提升了科研效率。

2026-02-06 19:36:22 388

原创 基于 CANN 的 ops-nn 仓库:解锁 AI 算子开发的新范式

在 AI 技术飞速迭代的今天,高效的算子开发与优化是推动模型性能突破的核心引擎。CANN(Compute Architecture for Neural Networks)作为昇腾计算平台的核心基础软件栈,其开源社区中的ops-nn 仓库正是聚焦于神经网络算子开发与优化的技术阵地,为开发者提供了构建高性能 AI 应用的关键工具链。

2026-02-06 19:25:20 754

原创 别被“限时无限”骗了!实测飞算JavaAI专业版“真无限Tokens”,如何支撑一场完整的重构马拉松

那种从深度思考的“心流”状态被强行抽离的窒息感,是效率的隐形杀手。本文将分享我如何通过飞算JavaAI专业版的“真无限Tokens”特性,彻底告别额度焦虑,重获AI辅助开发的真正自由。飞算JavaAI对此问题的回复让我意识到,在无限额度的保障下,我可以引导它进行深度的技术方案探讨和优化,而不仅仅是完成基础任务。特性,彻底移除了AI辅助开发过程中的最大障碍,让我们能够重新专注于编码本身,找回那种久违的、沉浸式的“心流”体验。真正的AI辅助开发自由,不应是时刻惦记着余额的“节俭”,而应是心无旁骛的“创造”。

2026-02-06 15:11:32 13335

原创 零基础全面掌握层次分析法(AHP):Python实现+论文加分全攻略

层次分析法是美国运筹学家萨蒂(T.L. Saaty)于20世纪70年代提出的多准则决策方法。将复杂问题拆解为“目标层→准则层→方案层”的递阶层次结构,通过“两两比较”确定各指标的重要性(权重),再通过定量计算得出最终决策结果。层次分析法的核心价值在于“将模糊判断量化”,通过本文的合作伙伴选择案例,能清晰看到从准则权重确定到方案得分计算的完整逻辑。掌握Python实现方法和论文呈现技巧,不仅能解决数学建模、企业决策中的实际问题,还能让学术写作更具严谨性和说服力。

2026-01-26 19:41:14 1214 43

原创 【鸿蒙PC命令行适配】rust应用交叉编译环境搭建和bat命令的移植实战指南

对于希望在鸿蒙PC上运行Rust应用的开发者来说,就需要自行编译构建,这个过程中的主要挑战在于配置Rust的交叉编译环境。本文将以Ubuntu 24.04为示例操作系统,按照鸿蒙SDK的标准步骤,指导读者从准备环境开始,经过工具链配置、编译测试直到故障排查,一步步完成针对鸿蒙PC平台的Rust应用交叉编译环境搭建过程。如今,已有许多知名的Rust命令行工具,如。需配置编译器、链接器等环境变量,让Rust编译时能找到鸿蒙SDK的工具链,将配置写入shell配置文件,我写好了一键配置命令,可直接复制运行。

2026-01-24 21:05:44 5749 11

原创 程序员接单实战指南:平台选择与长期接单思路解析

这两年,程序员接单逐渐从偶尔做点私活变成了一种被认真对待的工作方式,越来越多的开发者开始意识到,只依赖单一雇佣关系并不稳妥,而通过接单建立第二收入来源,既能提升抗风险能力,也能让技术更贴近真实业务需求。在国内程序员接单平台中,程聚宝(devlg.com)的定位相对清晰,它并不追求项目数量,项目的质量比较高。虽然不是典型的“外包接单平台”,但对希望长期远程合作的程序员来说,依然具有较高价值。需求确认之后,你需要对交付结果负责,因此一定要在接单前判断清楚,哪些是自己熟悉且可控的,哪些是明显超出当前能力范围的。

2026-01-22 18:25:59 40366 15

原创 2026年国产时序数据库盘点-深入剖析融合多模架构

它并非“万能钥匙”,但对于那些业务逻辑复杂、数据形态多样、且对事务一致性与系统整合有高要求的企业级用户而言,提供了一个能够将时序数据能力平滑、稳健地嵌入到现有企业数据核心中的优秀选择,体现了国产基础软件在架构设计上的深度思考与务实创新。在众多专注于时序场景极致优化的产品中,金仓数据库的时序组件选择了一条独特的路径:不追求做一个孤立的专用时序引擎,而是作为其强大的融合数据库体系(KES)中的一个版块。未来,随着AI for Data、实时智能分析的普及,时序数据库的“智能”与“融合”能力将愈发关键。

2026-01-18 14:11:14 10510 24

原创 拒绝把天聊死!我用 openJiuwen + DeepSeek+自建知识库 搭建了一个高情商沟通助手

在日常生活中,你是否也经常遇到这种尴尬时刻:收到对象的消息不知道怎么回才不显得敷衍?面对领导的“敲打”,不知道如何高情商应对?想拒绝朋友的借钱请求,却开不了口?为了解决这个“社恐”难题,我决定动手做一个AI 智能体(Agent)。这次我没有写复杂的代码,而是使用了 openJiuwen提供的可部署智能体开发平台,并接入了性价比极高的 DeepSeek 模型,十分钟就搓出了一个“高情商沟通助手”。

2026-01-13 21:29:58 22607 7

原创 【2025年度总结】从代码萌新到万粉博主:AI赋能下的破局与生长

2025年技术成长与AI融合之路:从Java图形化编程起步,完成C++理论学习并探索Linux终端;在AI智能体开发领域取得突破,参与开发比赛并运用AI辅助编程提升效率;CSDN粉丝突破万粉,实现技术分享与生活的平衡。这一年见证了从传统编程到AI前沿的跨越式成长,展现了技术学习与AI应用相结合的丰硕成果。

2025-12-31 16:47:02 11158 58

原创 在昇腾 NPU上跑通 Mistral-7B:从环境避坑到 100% 算力释放

目前的痛点主要在于 PyTorch 插件的易用性上(例如 accelerate 的自动映射支持还不够完美),导致我们必须手动写 .to("npu")。为了最大限度利用 NPU 算力,我们不能使用默认的 device_map="auto",因为它依赖 accelerate 库进行设备调度,在 NPU 上极易报错 ValueError: requires accelerate。本文详细记录了如何在。在跑通基础推理后,我们需要构建一个真正能对话的 Agent,并验证算力是否达到了 设备 的应有水平。

2025-12-26 23:33:33 25163 10

原创 在昇腾 NPU上跑通 Llama 3-8B:从环境部署到 100% 算力满载

Llama 3 是目前开源大模型的“流量担当”,而昇腾 (Ascend) 上的环境 则是算力的“扛把子”。如果 AICore 始终很低,说明数据卡在 CPU 预处理上了(CPU 瓶颈),但在本例中,表现出了极佳的吞吐能力。在 FP16 精度下的表现非常强劲,对于企业构建私有化大模型底座而言,它已经不再是“备胎”,而是具备极高性价比的主力选择。最终,模型成功输出了完整的 Python 冒泡排序代码,注释准确,逻辑清晰,无乱码。上进行 微调,让模型拥有垂直领域的专业知识,那才是 NPU 真正大显身手的地方。

2025-12-25 15:35:18 20947 5

原创 在昇腾 NPU上压测 Qwen1.5-MoE:AtomGit 云端部署全记录

从日志中可以看到,在首次加载模型权重(约 29GB)并完成推理的全过程中,耗时控制在合理范围内。由于Qwen1.5-MoE 的基础权重高达 29GB,普通 32GB 显存卡通常只能支持极短的对话。这说明 Qwen1.5-MoE 的稀疏计算特性与 Atlas 800T A2 的高算力完美契合——并发越高,NPU 的流水线利用率越高,展现了极强的生产环境潜力。MoE 模型的参数量本身就很大(~29GB),留给 KV Cache(上下文记忆)的空间很有限。MoE 模型对环境版本要求较高,尤其是 CANN 版本。

2025-12-25 15:01:26 20942 38

原创 金仓数据库(KingbaseES),三重革新,一文讲解

无论是核心业务系统的稳定运行,还是敏感数据的安全防护,亦或是复杂场景下的性能优化,都呼唤一款既能无缝衔接现有架构,又能突破传统数据库瓶颈的创新引擎。兼容,是我们连接过去的桥梁,而部署、安全、性能上的三重革新,则是我们赋能未来的引擎。这种 “精准到行” 的性能诊断能力,让运维从 “大海捞针” 转变为 “探囊取物”,不仅大幅缩短问题排查时间,更能帮助企业持续优化存储过程性能,让核心业务系统始终保持高效运行,为用户体验保驾护航。这意味着,数据库在诞生的那一刻,就已处于为您的业务负载量身定制的高性能状态。

2025-12-17 14:01:24 10844 44

原创 vLLM-Ascend 部署与推理服务化实战

vLLM 是目前大模型推理领域最火热的高性能推理框架之一,以其 PagedAttention 技术著称。而 vLLM-Ascend 则是 vLLM 在华为昇腾 NPU 上的硬件插件,使得昇腾算力能够通过 vLLM 释放强大的推理性能。在真正开始做迁移之前,我原本以为 GPU 和 NPU 在推理框架上的适配会非常复杂,但上手后才发现,vLLM-Ascend 的设计思路非常清晰:它在底层为昇腾补齐了算子、调度和内存管理,让我几乎不需要改动任何推理逻辑,就能把原本跑在 GPU 上的模型直接迁移到昇腾上运行。

2025-12-10 23:08:40 6247 53

原创 “零消耗”调用优质模型:AI Ping结合Cline助我快速开发SVG工具,性能与官网无异

AI Ping。

2025-12-09 15:24:00 856 4

原创 深入理解整数的原码、反码、补码与位运算

作为底层优化的利器,广泛应用于程序开发、数据加密、图像处理等领域。本文将详细解析整数的表示方式,并深入剖析常见的位运算符。,不仅能帮助我们优化代码,还能在底层开发中游刃有余。掌握这些知识,将使你在编程道路上更进一步!在计算机世界中,整数的存储和运算方式与数学中的概念略有不同。为了高效处理正负数,计算机采用。(最高位,0 代表正数,1 代表负数)。在存储负数时,计算机采用了。上进行的运算,速度极快,常用于优化程序性能。,在这之上,为了区分正负数,引入了。计算机内部的整数存储方式通常基于。

2025-12-09 13:53:31 971 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除