- 博客(18)
- 资源 (7)
- 收藏
- 关注
原创 华为AI产品和技术由浅入深巅峰解析
华为昇腾(Ascend)是自研AI处理器品牌,涵盖310/910/920等系列芯片,面向训练/推理场景,算力从16TOPS至376TFLOPS不等。Atlas是基于昇腾芯片的服务器产品线,包含加速卡(如300I)、边缘设备(500系列)及超算集群(900 SuperPod)。核心技术包含:DVPP硬件预处理单元(视频编解码/图像处理)、AI Core矩阵计算核心、统一内存管理架构,形成"数据输入-预处理-推理"全流程加速。通过npu-smi工具可监控芯片健康状态,MCU模块实现带外管理。
2026-03-05 10:25:20
959
原创 规范驱动开发 -- AI时代下的开发范式
摘要:规范驱动开发(SDD)通过三种模式(规范优先、规范锚定、规范即源码)重构软件开发流程,将规范作为核心指导。SDD包含四个阶段:Specify(定义行为)、Plan(技术方案)、Implement(自动化编码)、Validate(验证匹配)。研究表明结构化规范可提升AI生成代码质量50%,并支持并行开发。工具如BDD框架、API规范工具和AI辅助SDD工具(如Tessl)支持该模式。典型案例显示SDD在汽车安全系统中实现模型到代码的可靠生成。SDD使开发者角色转向规范设计与验证,AI负责实现,但人类仍需
2026-03-04 20:06:37
529
原创 群晖换飞牛OS后,我用道理鱼搭了个永久免费的私人音乐库
本文介绍了在飞牛OS(fnOS)上搭建私人音乐库的方法。通过道理鱼音乐系统实现本地音乐管理,支持自动刮削、多用户管理和无损转码等功能。详细讲解了Docker容器的安装配置过程,包括目录映射、端口设置等步骤。同时提供了手机端App连接教程,并演示了如何通过域名解析和端口转发实现公网访问。最终展示了PC浏览器和手机App的播放效果,为音乐爱好者提供了完整的私有云音乐解决方案。
2026-02-09 19:05:14
3038
原创 东软困局:昔日巨头如何翻身
东软集团2025年业绩预告显示亏损3-3.7亿元,扣非净利润连续三年半累计亏损超7.5亿元。公司主营业务盈利能力持续恶化,主要受营收增速放缓、成本上升及参股公司亏损拖累。业务结构失衡,高营收业务盈利低,高利润业务规模小。财务状况恶化,现金流紧张,短期偿债压力大。公司依赖政府补助等非经常性损益维持账面利润,新任董事长荣新节面临严峻经营挑战。
2026-02-05 16:13:23
792
原创 你的副业项目再也无法拯救你
AI工具正在颠覆技术招聘:作品集从"工作证明"沦为"提示词证明"。随着Bolt.new等平台能一键生成完整应用,传统项目展示的价值急剧下降——过去需要4-8周开发的成果,现在60秒即可完成。这导致40%招聘官难以辨别真实能力,应届生就业率下降20%。新信号体系正在形成:开源贡献、用户留存率、代码审查能力成为关键指标。GitHub研究显示,顶尖开发者正转型为"代码创意总监",核心价值转向架构决策和问题诊断。当发布成本归零,维护、协作和深度思考成为新的
2026-02-03 11:17:41
958
原创 Tilt:云原生开发的高效利器
摘要: Tilt是一款云原生开发工具,支持本地和Kubernetes环境,通过自动化代码重编译、镜像构建和部署流程,显著提升开发效率。它以Tiltfile(基于Starlark语言)配置开发环境,支持实时更新和跨平台一致性。以CNCF项目volcano-vgpu-device-plugin为例,实现代码修改→自动编译→镜像推送→资源更新的全流程自动化。
2025-12-16 12:53:20
999
原创 别让 AI “滥用” 资源!一文读懂 Agent 资源感知优化:分类路由、模型切换与成本控制全解析
Agent资源感知优化技术 资源感知优化使Agent能够动态监控和管理计算资源、时间和成本开销。与简单规划不同,该技术强调在资源约束下做出最优决策,通过权衡模型精度与成本来适应不同场景需求。典型应用包括:LLM成本优化(根据任务复杂度选择模型)、实时系统响应(优先速度而非完整性)、边缘计算能效管理等。文中提供了金融分析案例和代码实现,展示如何通过查询分类(简单/推理/网络搜索)动态选择处理路径,实现资源高效利用。该技术可显著提升Agent在预算、延迟和能效等约束条件下的适应性。
2025-10-14 11:06:21
1039
原创 华为《智能世界2035》:AI十大技术跃迁解读
《智能世界2035》报告展望了未来十年AI技术的发展方向,包括AGI演进路径、AI智能体升级、人机协同编程、镜像世界构建及移动生态变革等核心趋势。报告指出,AI将经历从规模驱动到架构革新的突破,形成融合数据、规则与行动的世界模型;智能体将从执行工具发展为决策伙伴;软件开发模式将因AI编程发生系统性重构;交互方式将迈向多模态与空间感知;移动生态将从App转向多Agent协同。这些技术跃迁将依托ICT基础设施的支撑,推动数字与物理世界的深度融合,最终实现可持续发展的智能社会。
2025-10-10 08:21:33
1679
原创 Homelab NAS系统升级--华硕FS6706T试用fnOS
之前有台群晖的DS216j,稳定运行了近八九年的时间了。整体使用下来,感觉群晖的系统易用性、稳定性和生态还是没得说的。DS216j这台机器是ARM CPU,只有两盘位且用的是机械盘。由于我需要存储大量的照片,有时候也需要用到Time Machine进行备份。机械盘对于IOPS非常不友好导致浏览和刷新照片等小文件的时候非常卡顿,并且磁盘噪音非常大。为了更好的性能表现和更安静的使用体验,在去年的时候新入一台6盘位的x86处理器的全闪存NAS:ASUS FS6706T,搭配致钛的SSD组成了RAID 5阵列。
2025-09-09 21:05:07
1776
原创 WebAssembly技术、生态简要分析(下)
本文简要介绍了WebAssembly对JavaScript的性能提升。以及WebAssembly(WASM)技术生态的runtime和platform层,包括目前主流WASM运行时包括Wasmer、WasmEdge、Wasm3等。
2025-09-05 21:01:00
779
原创 WebAssembly技术、生态简要分析(上)
事实上,WebAssembly既不Web也不AssemblyImage。WebAssembly(也简称为WASM)是一个可迁移的字节码(byte code)的执行环境的标准。它的目标是使软件具备安全,高性能(near native performance),可迁移(portable)和紧凑精简(compact)的能力。它可以在在浏览器中被集成,同时通过现有的WASM runtime,它也可以在浏览器外被解释和执行。
2025-09-02 20:33:19
1391
原创 全球 20 亿设备在用,8.8 万亿美元产业的缩影 —— curl
1996 年,一个人写下 100 行代码;2025 年,它运行在 200 亿设备上,支撑起全球 IT 的半壁江山。这么重要的开源项目,几乎没人愿意支持。
2025-09-01 10:54:36
380
原创 vLLM开发--从基础环境搭建,代码编译,调试到跑通单元测试
本文介绍了vLLM开发环境的配置及单元测试方法。文章介绍了在Ubuntu系统下的环境配置步骤,调试方式和单元测试方法。
2025-08-31 10:28:55
1821
2
原创 vLLM推理技术简介
摘要: vLLM通过创新的PageAttention机制优化LLM推理的显存管理,显著提升系统吞吐量。传统LLM推理中,KV Cache占用大量显存且存在内存碎片问题。vLLM借鉴操作系统分页思想,将KV Cache分割为固定大小的block,支持动态分配与跨请求共享,减少显存浪费。其架构包含中心化调度器和分布式GPU节点,通过逻辑与物理block的映射、引用计数及写时复制(CoW)机制,高效支持并行采样等复杂场景。实验表明,vLLM可实现接近零浪费的KV Cache管理,吞吐量提升2-4倍,尤其适用于高并
2025-07-24 17:29:55
2064
原创 天空计算领域的开源项目SkyPilot介绍
《天空计算:多云互操作性的未来探索》天空计算(Sky Computing)由UC Berkeley的Ion Stoica教授提出,旨在构建云平台之上的互操作层,打破云厂商间的壁垒。经历云计算从技术竞争到运营能力比拼的十年演进,天空计算技术逐渐从概念走向实践。其核心是通过跨云代理抽象异构云资源,使用户摆脱供应商锁定(Vendor Lock-in),尤其契合AI时代对算力调度和成本优化的需求
2025-07-16 00:12:24
2080
原创 大模型推理的技术总结
本文探讨了大型语言模型(LLM)推理中的批处理(batching)技术,分析了推理过程的两阶段特征:Prefill(计算密集型)和Decode(内存带宽受限)。介绍了计算量评估方法(FLOPs)和模型浮点运算利用率(MFU)的概念,对比了四种批处理类型:无批处理、静态批处理、动态批处理和连续批处理。其中连续批处理(token-by-token处理)最适合LLM推理,能有效提高GPU资源利用率。文章还解释了计算边界、内存带宽边界等关键技术术语,为优化LLM推理性能提供了理论依据。
2025-07-15 15:40:12
1898
原创 AI开发环境配置
本文介绍了如何搭建AI开发环境,重点解决Docker和NVIDIA容器工具包的安装配置问题。首先提供了官方Docker安装步骤,包括卸载旧版本、添加密钥和源、安装Docker CE等过程。针对安装后可能出现的路径问题给出了解决方案。随后详细说明了NVIDIA Container Toolkit的安装方法,包括添加源、版本指定安装和Docker运行时配置。最后通过运行nvidia-smi命令验证环境是否配置成功。文章包含完整的命令行操作指南,适用于在Ubuntu系统上搭建支持GPU加速的AI开发环境
2025-07-15 15:37:20
430
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅