- 博客(390)
- 收藏
- 关注
原创 在 AI PC 上本地微调 LLM:不用独显,也能把 Llama 3.2 训练成“会调用工具”的模型
本文分享一个真实跑通的案例:在AI PC上,使用 Unsloth 进行 LoRA 微调,对 meta-llama/Llama-3.2-3B-Instruct 进行训练,让模型具备 Function Calling(工具调用) 能力,并完成推理与评测。
2026-02-06 17:25:48
449
原创 语音识别新标杆!OpenVINO™ 加速部署 Qwen3-ASR 实战
近日,通义千问团队正式发布了 Qwen3-ASR 系列模型,包含 1.7B 和 0.6B 两个版本。作为 Qwen 语音家族的最新成员,它在多语言识别和处理复杂声学环境方面展现了卓越的性能。
2026-02-05 14:24:32
497
原创 使用 OpenVINO™ 玩转 Qwen3-TTS 语音合成
继语音识别(ASR)之后,阿里巴巴通义团队再次发力,推出了全新的 Qwen3-TTS 系列模型。
2026-02-05 10:37:37
547
原创 表格、公式、印章识别太难?OpenVINO™ Day 0 支持 PaddleOCR-VL-1.5:端侧文档解析一键 SOTA
OpenVINO™ 已完成 PaddleOCR-VL-1.5 的 Day 0 适配,并在英特尔® 酷睿™ Ultra 3系列上部署端到端文档解析流水线。
2026-01-29 22:52:19
604
原创 让你的 AIPC “能听会说”:Fun-ASR-Nano × Fun-CosyVoice 3.0 全链路加速实战
本文会通过实时语音翻译示例,带你一步步了解如何通过 Intel® OpenVINO™ 工具,把这两个模型优化成更轻量、推理更快、部署更灵活的版本,从而在 AIPC 上获得理想的性能。
2026-01-27 14:51:23
920
原创 OpenVINO™ Java API:让Java 开发者快速部署本地生成式AI
OpenVINO™ Java API,旨在推动 OpenVINO™在Java领域的应用。
2026-01-26 16:25:36
785
原创 OpenVINO™ 模型部署开发者说:IR模型“信息全景图” —— OpenVINO™ Model Information Viewer 工具详解
文章浏览阅读57次。它能够将模型的层次结构、输入输出配置、算子属性等关键信息,以清晰、直观的方式呈现给开发者,显著提升模型理解与部署准备工作的效率,让模型部署过程更加透明、高效。
2026-01-23 17:31:13
288
原创 混元翻译模型在intel平台上的使用
本文更聚焦于 “落地实用性”:手把手教你如何借助 OpenVINO™ 工具,将这款优秀的翻译模型成功部署在 Intel 平台上实现高效推理。
2026-01-12 16:11:05
901
原创 开箱即用的文档解析:PaddleOCR-VL + OpenVINO™(表格/图表/公式一次搞定)
如果你最近在做文档智能(合同/票据/财报/论文/报表),你一定遇到过这种尴尬:传统 OCR 能把字识别出来,但一到表格、图表、公式,要么结构丢失,要么后处理成本爆炸。PaddleOCR-VL 的出现,把“文档解析”从 OCR 升级成了更接近“读懂页面”的能力:同一套模型可以覆盖 OCR / Table / Chart / Formula 等任务,并且资源效率很高,适合做端侧落地。
2026-01-05 16:45:02
591
原创 一文了解2025 OpenVINO™ DevCon开发者落地手册,2026精彩继续
如果用一句话概括这一年的 DevCon:我们不只聊模型有多强,而是把“从模型到应用、从 Demo 到可部署服务”的坑与路,都铺给你了——让你在 CPU / GPU / NPU 上都能更快、更稳地把 AI 跑起来。
2025-12-29 16:36:10
493
原创 直播中:OpenVINO™ 上海技术研讨会—英特尔OpenVINO™助力具身智能生态成长
点击链接进入直播间:https://live.bilibili.com/1955434963
2025-12-13 13:58:22
225
原创 使用OpenVINO™加速部署通义Z-Image(造相)文生图模型
本文将详细介绍如何使用 Intel® OpenVINO™ 工具套件来优化和部署 Z-Image-Turbo 模型,在 Intel平台上上获得出色的推理性能。
2025-12-05 17:24:17
612
原创 具身智能 101 with OpenVINO™(1):在 Intel® AI PC 上用 RealSense 实现分割+测距
这篇文章,我们就用一台 搭载 Intel® Ultra9 275HX处理器(代号Arrow Lake)的 AI PC,配合 Intel® RealSense™ D455 深度相机和 OpenVINO™ 工具套件,搭建一个简单但实用的 demo。
2025-12-04 17:58:10
486
原创 OpenVINO ™ 2025.4: 大模型再提速,AI Agent 再进化
让我们一起看看本次版本如何继续推动我们的使命——让 AI 模型在 Intel 硬件上的部署变得更快、更高效、更易用。
2025-12-02 15:03:30
982
原创 【手把手教程】解锁OpenVINO™ WWB:GenAI模型优选从此So Easy
WWB工具全称为who_what_benchmark,是OpenVINO™ GenAI中的生成式AI模型简易准确率基准测试工具,主要用于评估转换或量化压缩后模型与原版模型的相似度,也是社区优选模型的重要评审工具。
2025-11-24 17:33:15
835
原创 明日直播 | 基于Windows AI Foundry与OpenVINO™,释放AI PC潜能
在AI PC浪潮迅速崛起的当下,如何高效开发并落地本地AI应用成为行业焦点。本次演讲将以“基于Windows AI Foundry与OpenVINO™,释放AI PC潜能”为主题,解读英特尔如何携手微软,为开发者打造完整的AI PC生态加速方案。从Windows AI APIs到Foundry Local,再到OpenVINO™执行推理加速和快速部署,我们将分享如何用统一接口、高性能推理与硬件协同,轻松实现本地AI部署。
2025-11-12 16:28:46
220
原创 直播预告:OpenVINO™与Windows AI Foundry赋能AI端侧落地
报名通道已开启,点击链接即可完成报名:https://uao.so/sh1eKiZCN
2025-11-03 17:32:56
205
原创 让模型说人话、懂结构:OpenVINO™ GenAI 全面开启结构化输出新时代!
借助 OpenVINO™ GenAI,你现在可以“开箱即用”地获得可靠的结构化解码能力。
2025-11-03 15:11:38
493
原创 100% 开源边缘智能引擎:OpenVINO™ 与 EdgeX Foundry 完美结合,零代码即插即用实践(GitHub开源)
在边缘计算的浪潮中,人工智能(AI)推理从云端向边缘设备的迁移已成为趋势,带来更低的延迟、更高的隐私保护和更优的资源效率。Intel 的 OpenVINO™ 工具包及其 Model Server (OVMS),结合 EdgeX Foundry 的开源框架,提供了一个强大的边缘智能引擎。
2025-10-21 13:46:23
1060
原创 YOLO Vision 来了!和我们一起解锁AI视觉的“芯”速度!
10月26日(周日),Ultralytics YOLO Vision Shenzhen 2025 即将在深圳开幕!
2025-10-21 11:13:31
159
原创 英特尔Day0适配Qwen3-VL-4B/8B新模型,释放系统资源带来流畅体验
除了利用Optimum-cli工具导出OpenVINO™模型外,我们还在Optimum-intel中重构了Qwen3-VL和Qwen3-VL-MOE模型的Pipeline,将官方示例示例中的的Qwen3VLForConditionalGeneration替换为OVModelForVisualCausalLM便可快速利用OpenVINO™进行模型部署,完整示例可参考以下代码流程。今晨,阿里通义又发布了Qwen3-VL的新成员,Qwen3-VL-4B和Qwen3-VL-8B。
2025-10-15 16:47:31
1089
原创 端侧AI创新挑战赛正式启动
我们需要你把 Qwen"装进设备"!用通义干问在端侧 (手机、开发板、Al PC) 玩出花样,无论是工具、助手还是创意Demo,我们都欢迎!
2025-10-15 13:26:37
869
原创 一键加载GGUF!OpenVINO™ GenAI让大模型推理更快更轻
让我们一起看看如何通过 OpenVINO™ GenAI 快速运行 GGUF 模型推理!
2025-10-13 17:43:32
994
原创 英特尔Day 0高效适配Qwen3新模型,打造智能体提升原生AI PC流畅体验
伴随阿里巴巴通义实验室发布Qwen3-VL中小尺寸模型,英特尔宣布已在Day 0完成了针对该模型的适配,并实现对近期发布的Qwen3-Next模型的高效部署。
2025-10-05 20:44:09
838
原创 端侧AI创新挑战赛正式启动!
点击链接,了解活动详情: https://modelscope.cn/competition/145/%E6%AF%94%E8%B5%9B%E7%AE%80%E4%BB%8B。
2025-09-23 16:15:08
219
原创 OpenVINO™ 2025.3: 更多生成式AI,释放无限可能
在本次新版本中,我们新增了对更多生成式 AI 模型的支持,从大语言模型(LLM)到多模态视觉语言模型(VLM),包括 Phi-4-mini-reasoning、AFM-4.5B、Gemma-3-1B、Gemma-3-4B 和 Gemma-3-12B。无论你想打造智能聊天机器人、领先的计算机视觉应用,还是突破性的生成式 AI 解决方案,OpenVINO™ 2025.3 都能为你提供简洁高效的工具,加速从灵感到落地的全过程,助力你的 AI 创意照进现实。它支持在内容生成场景中的工具调用,例如。
2025-09-05 14:14:42
1129
原创 在Intel B60 GPU部署Flux.1 Kontext模型
FLUX.1 Kontext 是Black Forest Labs 发布的,可用于生成和编辑图像的全新模型系列,该系列模型能够同时使用文本和图像进行提示,并无缝地提取和修改视觉概念,从而生成全新、连贯的渲染效果。
2025-08-25 10:31:06
1127
原创 利用Optimum-intel快速部署Qwen3-embedding系列模型
本文将分享如何利用Optimum-intel快速在Intel平台上部署Qwen3-embedding系列模型。
2025-08-25 09:53:28
894
原创 加速英特尔® GPU上的大语言模型(LLM):动态量化实用指南
动态量化是一种强大的优化技术,能显著提升 Transformer 模型在英特尔® GPU(具备 XMX 硬件,如 Lunar Lake、Arrow Lake 以及 Alchemist、Battlemage 等系列的集成及独立显卡)上的性能。OpenVINO™ 2025.2 中的动态量化是一种简单却高效的方法,可自动加速英特尔® GPU 上的 Transformer 推理。动态量化通过在矩阵乘法(MatMul)运算前,将输入激活值(通常是 fp16)即时转换为 int8 来降低计算成本。
2025-08-15 09:40:33
1083
原创 报名开启丨研讨会:OpenVINO™创新协作,赋能AI端侧落地
本次线上盛会深度聚焦AI模型优化与端侧应用落地的核心实践,旨在打通技术前沿与产业应用的关键环节。
2025-08-14 18:19:30
246
原创 如何利用OpenVINO™工具套件高效部署混元系列模型
此外,openvino-genai提供了chat模式的构建方法,通过声明pipe.start_chat()以及pipe.finish_chat(),多轮聊天中的历史数据将被以kvcache的形态,在内存中进行管理,从而提升运行效率。openvino-genai 示例:https://github.com/openvinotoolkit/openvino.genai/blob/master/samples/python/text_generation/chat_sample.py。
2025-08-08 11:40:16
668
原创 利用OpenVINO™ Day0快速部署端侧可用的MiniCPM-V4.0视觉大模型
OpenVINO™作为一个跨平台的深度学习模型部署工具,可以极大优化大语言的模型的推理性能,在充分激活硬件算力同时,降低对于内存资源的占用。本文将介绍如何利用OpenVINO™工具套件在本地部署MiniCPM-V4.0模型。
2025-08-07 17:58:30
972
腾讯会议与OpenVINO合作优化NPU算力增强会议系统智能化
2025-01-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅