- 博客(1223)
- 资源 (2)
- 收藏
- 关注
原创 表格、公式、印章识别太难?OpenVINO™ Day 0 支持 PaddleOCR-VL-1.5:端侧文档解析一键 SOTA
OpenVINO™ 已完成 PaddleOCR-VL-1.5 的 Day 0 适配,并在英特尔® 酷睿™ Ultra 3系列上部署端到端文档解析流水线。
2026-01-29 23:26:25
1908
原创 让你的 AIPC “能听会说”:Fun-ASR-Nano × Fun-CosyVoice 3.0 全链路加速实战
本文会通过实时语音翻译示例,带你一步步了解如何通过 Intel® OpenVINO™ 工具,把这两个模型优化成更轻量、推理更快、部署更灵活的版本,从而在 AIPC 上获得理想的性能。
2026-01-27 14:09:03
791
原创 OpenVINO™ Java API:让Java 开发者快速部署本地生成式AI
如需获取适配的 Archive 版本库文件,可访问官方文档地址(https://openvinotoolkit.github.io/openvino.genai/docs/getting-started/installation),根据自身操作系统及版本下载对应的归档包;目前,开发者需要自行下载该项目,将其源代码中的 src 文件夹复制到自己的代码当中,以便更好地利用 OpenVINO™ Java API 所提供的丰富功能和强大特性,为 Java 开发领域注入新的活力和创新元素。
2026-01-26 16:34:51
1008
原创 OpenVINO™ 模型部署开发者说:IR模型“信息全景图” —— OpenVINO™ Model Information Viewer 工具详解
它能够将模型的层次结构、输入输出配置、算子属性等关键信息,以清晰、直观的方式呈现给开发者,显著提升模型理解与部署准备工作的效率,让模型部署过程更加透明、高效。
2026-01-23 17:26:48
430
原创 Z-Image-Turbo 文生图模型部署指南
Z-Image-Turbo是阿里巴巴通义实验室最新发布的高性能文生图模型。它基于先进的Diffusion Transformer架构,拥有60亿参数,核心特性在于仅需极少的推理步数(通常8至10步)即可快速生成细节丰富、质感逼真的高质量图像。Z-Image-Turbo模型非常适配AI PC场景,目前已针对搭载Intel Core Ultra处理器的平台进行优化,能够充分利用其内置的CPU与GPU进行高效推理。
2026-01-15 16:28:20
1580
原创 混元翻译模型在intel平台上的使用
本文更聚焦于 “落地实用性”:手把手教你如何借助 OpenVINO™ 工具,将这款优秀的翻译模型成功部署在 Intel 平台上实现高效推理。
2026-01-12 15:27:03
1769
原创 OpenVINO™ 模型部署开发者说:先给模型做体检,再谈上线
【开篇寄语】本文为 OpenVINO™ 社区开发者的实践分享,内容基于作者在真实项目中的经验整理。作为开源AI工具套件,OpenVINO™欢迎大家结合自身场景验证、交流、分享,共同推动技术实践进步。
2026-01-09 13:56:25
1514
原创 开箱即用的文档解析:PaddleOCR-VL + OpenVINO™(表格/图表/公式一次搞定)
PaddleOCR-VL 的出现,把“文档解析”从 OCR 升级成了更接近“读懂页面”的能力
2026-01-05 16:33:52
1468
原创 一文了解2025 OpenVINO™ DevCon开发者落地手册,2026精彩继续
如果用一句话概括这一年的 DevCon:我们不只聊模型有多强,而是把“从模型到应用、从 Demo 到可部署服务”的坑与路,都铺给你了——让你在 CPU / GPU / NPU 上都能更快、更稳地把 AI 跑起来。
2025-12-29 16:47:01
1401
原创 使用OpenVINO™加速部署通义Z-Image(造相)文生图模型
本文详细介绍了如何使用 OpenVINO™ 部署通义Z-Image-Turbo 模型,OpenVINO™为 Z-Image-Turbo 提供了显著的性能提升,作为轻量化模型的代表,Z-Image-Turbo特别适合在 Intel CPU/GPU 上进行推理部署。
2025-12-05 17:29:45
1279
原创 具身智能 101 with OpenVINO™(1):在 Intel® AI PC 上用 RealSense 实现分割+测距
这篇文章,我们就用一台 搭载 Intel® Ultra9 275HX处理器(代号Arrow Lake)的AI PC,配合 Intel® RealSense™ D455 深度相机和OpenVINO™ 工具套件,搭建一个简单但实用的 demo。
2025-12-04 17:50:26
1957
原创 OpenVINO ™ 2025.4: 大模型再提速,AI Agent 再进化
让我们一起看看本次版本如何继续推动我们的使命——让 AI 模型在 Intel 硬件上的部署变得更快、更高效、更易用
2025-12-02 15:38:24
1512
原创 【手把手教程】解锁OpenVINO™ WWB:GenAI模型优选从此So Easy
WWB工具全称为who_what_benchmark,是OpenVINO™ GenAI中的生成式AI模型简易准确率基准测试工具,主要用于评估转换或量化压缩后模型与原版模型的相似度,也是社区优选模型的重要评审工具。
2025-11-24 17:45:40
1174
原创 明日直播 | 基于Windows AI Foundry与OpenVINO™,释放AI PC潜能
在AI PC浪潮迅速崛起的当下,如何高效开发并落地本地AI应用成为行业焦点。本次演讲将以“基于Windows AI Foundry与OpenVINO™,释放AI PC潜能”为主题,解读英特尔如何携手微软,为开发者打造完整的AI PC生态加速方案。从Windows AI APIs到Foundry Local,再到OpenVINO™执行推理加速和快速部署,我们将分享如何用统一接口、高性能推理与硬件协同,轻松实现本地AI部署。
2025-11-12 16:28:53
511
原创 直播预告:OpenVINO™与Windows AI Foundry赋能AI端侧落地
报名入口已开放,请点击链接,完成报名:https://uao.so/shW0CEEUr
2025-11-03 17:21:54
542
原创 让模型说人话、懂结构:OpenVINO™ GenAI 全面开启结构化输出新时代!
借助 OpenVINO™ GenAI,你现在可以“开箱即用”地获得可靠的结构化解码能力。自 2025.3 版本起,OpenVINO™ 通过 XGrammar 实现了高效的 SO 支持,确保每一次生成都快速、有效、可直接使用。无论是在 AI PC 本地运行、边缘设备上部署,还是通过 OVMS 提供服务,你都可以用几行代码轻松启用结构化输出——没有格式错误的 JSON,没有重试的麻烦,只有正确与高效,全面释放英特尔平台的潜能。
2025-11-03 15:29:01
1216
原创 YOLO Vision 来了!和我们一起解锁AI视觉的“芯”速度!
10月26日(周日),Ultralytics YOLO Vision Shenzhen 2025 即将在深圳开幕!
2025-10-21 11:10:37
463
原创 100% 开源边缘智能引擎:OpenVINO™ 与 EdgeX Foundry 完美结合,零代码即插即用实践(GitHub开源)
在边缘计算的浪潮中,人工智能(AI)推理从云端向边缘设备的迁移已成为趋势,带来更低的延迟、更高的隐私保护和更优的资源效率。
2025-10-21 10:35:16
1315
原创 英特尔Day0适配Qwen3-VL-4B/8B新模型,释放系统资源带来流畅体验
今晨,阿里通义又发布了Qwen3-VL的新成员,Qwen3-VL-4B和Qwen3-VL-8B。
2025-10-15 16:37:10
1949
3
原创 一键加载GGUF!OpenVINO™ GenAI让大模型推理更快更轻
让我们一起看看如何通过 OpenVINO™ GenAI 快速运行 GGUF 模型推理!
2025-10-13 17:28:49
858
原创 英特尔Day 0高效适配Qwen3新模型,打造智能体提升原生AI PC流畅体验
伴随阿里巴巴通义实验室发布Qwen3-VL中小尺寸模型,英特尔宣布已在Day 0完成了针对该模型的适配,并实现对近期发布的Qwen3-Next模型的高效部署。
2025-10-05 20:45:01
1768
原创 OpenVINO™ 2025.3: 更多生成式AI,释放无限可能
全新 OpenVINO™ 2025.3 版本,为你带来更快的上手体验和更强大的性能。
2025-09-05 14:10:45
1073
原创 利用Optimum-intel快速部署Qwen3-embedding系列模型
Qwen3-embedding示例:https://github.com/openvinotoolkit/openvino_notebooks/blob/latest/notebooks/qwen3-embedding/qwen3-embedding.ipynb。完成模型转换后,我们同样可以利用Optimum-intel来进行模型部署,当创建以“OV”为前缀的模型任务对象后,Optimum-intel会使用OpenVINO™作为模型的后端执行推理,并通过device参数来指定模型部署硬件。
2025-08-25 10:49:00
1142
原创 在Intel B60 GPU部署Flux.1 Kontext模型
为模型在HuggingFace上的model id,这里我们也提前下载原始模型,并将model id替换为原始模型的本地路径,针对国内开发者,推荐使用ModelScope魔搭社区作为原始模型的下载渠道,具体加载方式可以参考ModelScope官方指南:https://www.modelscope.cn/docs/models/download。在部署模型之前,我们首先需要将原始的PyTorch模型转换为OpenVINO™的IR静态图格式,并对其进行压缩,以实现更轻量化的部署和最佳的性能表现。
2025-08-25 10:36:32
1323
原创 加速英特尔® GPU上的大语言模型(LLM):动态量化实用指南
动态量化是一种强大的优化技术,能显著提升 Transformer 模型在英特尔® GPU(具备 XMX 硬件,如 Lunar Lake、Arrow Lake 以及 Alchemist、Battlemage 等系列的集成及独立显卡)上的性能。
2025-08-14 22:53:43
1044
原创 报名开启丨研讨会:OpenVINO™创新协作,赋能AI端侧落地
OpenVINO™与Ultralytics两大行业巨头强强联合。联手打造的Optimum Intel工具套件同样适用于魔搭社区。深入探索OpenVINO™与HuggingFace。助开发者零门槛快速上手,项目落地更高效!如何让AI技术更快速、更高效地落地应用。将为您带来切实可行的解决方案与前沿洞见。旨在打通技术前沿与产业应用的关键环节。足不出户与行业专家共探AI前沿话题!成为众多开发者与行业人士关注的焦点。为开发者们带来了前所未有的便捷体验。及开发者参与生成式AI创新的机会!中国系列工作坊精心筹备。
2025-08-14 18:29:52
451
原创 利用OpenVINO™ Day0快速部署端侧可用的MiniCPM-V4.0视觉大模型
通过OpenVINO™的NNCF量化工具,可以快速进行模型文件里的离线量化,量化后,我们可以得到INT4精度的OpenVINO™模型,包含.xml和.bin两个文件,相较FP16精度的模型文件,INT4精度模型尺寸仅为其1/4左右。凭借小巧的参数规模和高效的架构,MiniCPM-V4.0是移动端部署的理想选择。在部署模型之前,我们首先需要将原始的PyTorch模型转换为OpenVINO™的IR静态图格式,并对其进行压缩,以实现更轻量化的部署和最佳的性能表现。魔搭社区OpenVINO。2. 模型下载和转换。
2025-08-07 19:19:56
2166
1
原创 Intel OpenVINO™ 携手ComfyUI提升AI创作效率
Intel OpenVINO™工具套件(https://openvino.ai/)以其在Intel硬件上优化和部署AI模型的能力而闻名,近日与AI工作流平台ComfyUI (https://www.comfy.org/ )达成合作:通过最近合并的OpenVINO™ node拉取请求(PR),将OpenVINO™的强大功能集成到ComfyUI中,为使用Intel硬件的创作者带来了显著的工作效率提升。
2025-07-05 19:58:16
1847
原创 利用OpenVINO™在本地部署Qwen2.5-Omni全模态任务
Qwen2.5-Omni是Qwen 模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。
2025-07-05 19:53:39
1681
原创 Say Hi to ERNIE!英特尔Day0完成文心大模型4.5系列开源模型的端侧部署
今天,百度正式发布文心大模型4.5系列开源模型。英特尔OpenVINO与百度飞桨多年来一直保持着紧密的合作。在此次文心系列模型的发布过程中,英特尔借助OpenVINO在模型发布的第零日即实现对文心端侧模型的适配和在英特尔酷睿Ultra平台上的端侧部署。
2025-06-30 15:56:10
2975
原创 在家造AI神器!OpenVINO™让桌面推理触手可及
AI PC 是一台配备专门用于加速 AI 工作负载的硬件的计算机,意味着我们可以高效地运行包含 AI 模型的应用程序。就是这样!我们将看看如何组装它?
2025-06-27 13:30:36
2414
原创 【梅科尔工作室】 英特尔OpenVINO探索-边缘驱动锂电池智能焊接平台
本方案基于边缘智能驱动,融合YOLOv8模型与OpenVINO轻量化部署技术,通过哪吒派实现焊点缺陷毫秒级识别与自动补焊闭环,结合霍夫圆变换与Python视觉算法完成电池极柱±0.2mm精确定位及多型号柔性焊接路径规划。该方案构建“检测-解析-补焊”全流程自动化体系,推动良品率提升至97.5%、生产效率提高40%,为锂电池模组焊接提供智能化解决方案。
2025-06-26 21:34:31
1770
zh.mp3让你的 AIPC “能听会说”:Fun-ASR-Nano × Fun-CosyVoice 3.0 全链路加速实战
2026-01-27
当Ollama遇上OpenVINO:解锁多硬件AI推理新范式
2025-03-31
火绒安全携手OpenVINO 工具套件 共筑软硬件协同安全新格局
2025-03-20
贝锐向日葵与 OpenVINO携手开启智能化远程控制新纪元
2025-03-20
Deepseek 再次震撼 AI 领域,OpenVINO2025.0 全力加持,性能全面升级!
2025-02-13
卓易打造高效智慧楼宇运营管理平台 赋能智慧园区高质量发展
2024-08-29
收费车型精准识别,实现高效缴费稽核 小神瞳收费车型识别系统赋能智慧交通建设
2024-08-29
基于小钴科技 AI-Box 的智慧园区解决方案 助力打造一站式创新园区
2024-08-29
基于英特尔架构的趋视科技神图智安智慧社区解决方案
2024-08-29
开域集团打造基于英特尔视频 AI 计算盒的智慧汽车 4S 门店解决方案
2024-08-29
百度打造 “AI 质检员” 帮助企业降本增效
2024-08-29
英特尔 赋能工业数字化升级 机器视觉特刊 2024
2024-08-28
英特尔技术优化锂电池缺陷检测方案助力 新能源行业发展
2024-08-28
深信服医疗云边端协同方案赋能信息化变革加速智慧医院转型
2024-08-27
英特尔锐炫 显卡赋能医学影像 AI 推理解决方
2024-08-27
阅面科技智慧理化生实验辅助评分SDK白皮书
2024-08-27
安恒信息采用英特尔至强 可扩展处理器加速恒脑大模型推理 助力实现智能安全运营
2024-08-26
文章中的*.dll文件在哪里下载
2024-01-16
pot工具已经弃用,量化工具更改为什么
2024-01-16
不知道该如何用最新版vino复现
2024-01-16
N5105是迷你主机那种盒子吗?
2024-01-16
Dolly 2.0能用于训练大模型吗?
2023-11-01
英特尔独立显卡性能比较
2023-11-01
目前intel的gpu只能有限的支撑几个深度学习的模型的训练吗?
2023-11-01
AsyncInferQueue C++ 的demo
2023-11-01
《在英特尔独立显卡上训练TensorFlow模型?》输出结果是否正常?
2023-11-01
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅