ipex-llm入门学习资料汇总 - Intel开发的加速LLM推理和微调的PyTorch库

ipex-llm

ipex-llm简介

ipex-llm是由Intel开发的PyTorch库,旨在加速Intel CPU和GPU(如本地PC的iGPU、Arc/Flex/Max等独立显卡)上的大语言模型(LLM)推理和微调。它具有以下特点:

  • 基于llama.cpp、transformers、bitsandbytes、vLLM等优秀项目构建
  • 与llama.cpp、Ollama、Text-Generation-WebUI、HuggingFace transformers、LangChain、LlamaIndex等工具无缝集成
  • 已优化/验证超过50种主流LLM模型,包括LLaMA2、Mistral、Mixtral、Gemma、LLaVA、Whisper、ChatGLM、Baichuan、Qwen等

IPEX-LLM性能

快速入门

Docker镜像

ipex-llm提供了多个Docker镜像,方便用户快速开始:

使用指南

Ollama演示

应用案例

  • GraphRAG:使用ipex-llm运行Microsoft的GraphRAG
  • RAGFlow:使用ipex-llm运行RAGFlow
  • LangChain-Chatchat:使用ipex-llm运行基于RAG的知识库问答系统
  • Continue:使用ipex-llm运行VSCode中的编码助手

代码示例

低比特推理

  • INT4推理:在Intel GPU和CPU上进行INT4 LLM推理
  • FP8/FP6/FP4推理:在Intel GPU上进行FP8、FP6和FP4 LLM推理
  • INT2推理:在Intel GPU上基于llama.cpp IQ2机制进行INT2 LLM推理

分布式推理

模型微调

更多资源

ipex-llm为在Intel硬件上加速LLM提供了强大而灵活的解决方案。无论您是想在本地PC上运行大型语言模型,还是在数据中心进行大规模LLM部署,ipex-llm都能助您一臂之力。欢迎访问项目GitHub了解更多信息!

文章链接:www.dongaigc.com/a/ipex-llm-intro-resources-pytorch

https://www.dongaigc.com/a/ipex-llm-intro-resources-pytorch

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值