• 博客(54)
  • 收藏
  • 关注

原创 PPIO 上线 Qwen3-Embedding 系列模型

Embedding 模型是一种将离散的符号(如单词、句子、图像等)映射到连续的向量空间中的模型。在自然语言处理(NLP)领域,它通常用于将单词或句子转换为向量形式,以便计算机能够更好地处理和理解语言信息。训练 Embedding 模型的目标是使相似的符号在向量空间中更接近,不相似的符号更远离。例如“苹果”和“香蕉”两个单词,一个好的文本 Embedding 模型会把它们编码成两个接近的向量。这样,AI 系统就可以通过“向量距离”来判断语义相似性。

2025-06-12 17:36:01 679

原创 PPIO上线H200 SXM、RTX 5090两款显卡

在模型推理、训练过程中,显卡性能至关重要。显卡的CUDA核心、Tensor核心数量及架构直接影响并行计算效率,高算力显卡可显著加速模型训练与推理过程。因此,高性能、高性价比显卡成了AI推理训练的“必争之地”。为助力AI开发者突破算力瓶颈,PPIO全新上线H200 SXM、RTX 5090两款高性能显卡,即开即用,可按需付费。结合推理优化加速技术,开发者可实现资源成本的最优化。目前,多款卡型限时折扣进行中,前往PPIO官网算力市场即可查看。

2025-06-10 15:35:18 88

原创 PPIO ×Apifox:一键调用模型API,高效开发AI应用

集 API 文档、API 调试、API Mock、API 自动化测试于一体的 API 研发管理工具Apifox可以将全流程集成于一体,帮助开发者提升开发效率、协作体验和集成灵活性。通过简单配置,就能在 Apifox 中快速调用各主流模型,简化大模型集成流程,实现AI应用高效开发。打开克隆项目,选择「正式环境」,并在环境变量「api_key」中填入从派欧云官网保存的密钥,保存配置。打开 API 密钥管理页面,点击创建按钮,输入自定义密钥名称,生成API密钥。配置完成后,点击发送,即可收到模型返回的响应。

2025-06-05 17:48:37 822

原创 从Copilot到Agent,AI Coding是如何进化的?

编程原本是一项具有一定门槛的技能,但借助 AI Coding 产品,新手也能写出可运行的代码,非专业人员如业务分析师、产品经理,也能在 AI 帮助下直接生成简单应用。这一演变对软件产业产生了深远影响。当 AI 逐步参与代码生成、调试乃至项目管理,。今天市场上的 AI Coding 产品是如何发展的?按照发布时间与产品类型,AI Coding 的发展历程大致可以分为四个阶段:代码模型基建,比如 Codex、o1、DeepSeek R1 等。

2025-06-05 15:14:25 1077

原创 PPIO私有化部署模板上新!10分钟拥有专属最新DeepSeek模型

这两天,DeepSeek接连发布了升级版R1模型DeepSeek-R1-0528及蒸馏模型DeepSeek-R1-0528-Qwen3-8B,模型性能相较于此前R1模型大幅升级。DeepSeek-R1-0528性能自是不必多言,值得注意的是,根据升级版R1模型思维链提取出来蒸馏模型性能依旧强大,在数学测试中表现与 Qwen3-235B 相当,可以说是“小参数大性能”。

2025-05-30 18:18:52 302

原创 PPIO × AstrBot:多平台接入聊天机器人,开启高效协同 | 教程

如果你需要使用沙箱代码执行器,请额外添加 -v /var/run/docker.sock:/var/run/docker.sock 参数。接下来,点击权限管理,点击开通权限,输入 im:message:send,im:message,im:message:send_as_bot。在代码编辑配置中,你可以直接编辑配置文件,编辑完后首先点击应用此配置,此时配置将应用到可视化配置中,然后再点击右下角保存按钮来保存配置。打开 API 密钥管理页面,点击创建按钮,输入自定义密钥名称,生成API密钥。

2025-05-30 16:50:09 912

原创 首发!PPIO派欧云上线DeepSeek-R1-0528-Qwen3-8B蒸馏模型

首发!PPIO派欧云上线DeepSeek-R1-0528-Qwen3-8B蒸馏模型DeepSeek R1 系列的模型更新还在继续。继昨天 PPIO派欧云后,今天 PPIO 再次首发 DeepSeek 最新开源的蒸馏模型DeepSeek-R1-0528-Qwen3-8B 是将 DeepSeek-R1-0528 的思维链提取出来,用于对 Qwen3 8B Base 进行后训练而得到的蒸馏模型。

2025-05-30 00:18:50 1069

原创 Dify、n8n、Coze、Fastgpt、Ragflow超详细选型指南!附PPIO接入教程

LLM应用平台的核心价值在于大大降低了AI应用的开发门槛,加速从概念到产品的落地过程,并为开发者提供整合、管理和优化AI能力的工具集(插件、MCP工具等等)。开源的LLM应用开发平台,融合BaaS和LLMOps理念,旨在提供一站式的AI应用快速开发与运营能力,包括Agent工作流、RAG Pipeline等。自托管方案提供更高的数据安全性和隐私保护,但需要更多的技术支持;一句话: Dify 是个23年4月开源的LLM应用开发平台,如果想整点专业的、能上生产的AI应用,还想把后端、模型运维的事全搞定?

2025-05-29 16:21:25 421

原创 首发!PPIO派欧云上线DeepSeek-R1-0528

DeepSeek-R1-0528模型在HuggingFace开源,代码能力显著增强,可媲美Claude3.7/4。该模型支持通过简单提示生成游戏、网页等,风格更自然。PPIO云平台已首发上线该模型,提供多种集成方式:官网直接体验、第三方平台调用或API开发集成(兼容OpenAI接口)。开发者可通过Python等语言快速接入,适用于对话应用、工作流等场景。模型升级对AI开发生态将产生重要影响。

2025-05-29 06:11:59 976

原创 PPIO× ChatWise:解锁兼具性能、隐私、多模态的AI助手 | 教程

在当前AI聊天工具市场中,ChatWise以其“第二快的AI聊天机器人”称号脱颖而出,支持包括DeepSeek-R1、Qwen3在内的多种LLM模型,并提供本地数据存储、多模态交互及联网搜索功能。在PPIO派欧云高性能API服务的支持下,ChatWise能够满足用户在不同场景下的模型调用需求。本文提供了详细的配置教程,帮助用户解锁具备高性能、隐私保护及多模态交互的AI助手。

2025-05-22 15:13:38 421

原创 OpenAI大师课:初创公司、企业和开发者必看的AI落地指南

OpenAI 在 4 月份发布了三篇非常有参考意义的“AI 大师课”,初创公司、企业和开发人员都可以在其中找到深入的资源来加速 AI 的采用。这三篇 AI 大师课分别是:《企业中的人工智能》:25 页 PDF,介绍七家前沿公司的使用 AI 的经验教训《构建人工智能代理的实用指南》:34 页 PDF,介绍 AI 代理到底能为员工做些什么《识别和扩展人工智能用例》:34 页 PDF,介绍 AI 落地的三个原则与六大方向本文分为四部分:七家前沿公司的使用 AI 的经验教训OpenAI Agent 构建指南AI 落

2025-05-21 11:57:26 611

原创 PPIO × RuoYi AI :四步解锁AI开发平台,一键搭建AI应用 | 附完整教程

当前AI应用类型多种多样,已广泛应用于金融、医疗、教育等数十个关键领域,呈现出"千业千面"的趋势。在传统开发流程,想要搭建AI应用,不仅需要支撑高并发请求的微服务架构,还需整合包括知识图谱构建、多轮对话管理、意图识别引擎在内的十余项核心技术模块。如何才能更加简单、高效地搭建AI应用?全栈式 AI 开发平台 RuoYi AI 提供了一个开箱即用的开源解决方案,涵盖前端应用、后台管理、小程序应用。并且,该开源系统基于 MIT 协议,自由度高,可灵活修改和分发代码,支持免费商用。

2025-05-16 18:10:50 818

原创 DeepSeek-V3最新论文重磅发布,PPIO已跑通所有核心推理加速技术

梁文锋署名论文最新发布,PPIO全链路推理加速技术率先跑通。今天,DeepSeek官方发布了一篇重磅论文,由梁文锋亲自署名:《Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures》——《深入了解DeepSeek-V3:AI架构的硬件扩展挑战和思考》。

2025-05-16 17:07:33 746

原创 代理工作流:RAG、Deep Research与代码助手都在用的技术

此外,至关重要的是,代理编码助手可以从错误中学习,将它们编码在长期记忆中,使它们随着时间的推移变得更聪明。这种独特的能力归功于几个特点。代理工作流还利用 AI 代理的核心组成部分,包括其推理能力、使用工具与环境互动的能力以及持久记忆,将传统工作流完全转变为响应式、适应性和自我进化的过程。原子设计模式,如规划和工具使用,可以以创造性的方式组合,有效地利用代理人工智能来完成各种任务,跨越不同的领域。每个工作流都使用其独特的模式和工具组合,赋予其代理不同程度的自主性和决策能力,并依赖不同程度的人类反馈和参与。

2025-05-12 15:49:04 869

原创 PPIO x n8n:零代码构建自动化工作流驱动的AI Agent|教程

工作流在AIAgent系统中至关重要,它指导智能体如何感知、思考和行动。n8n是一个灵活的工作流自动化平台,支持代码编写和可视化操作,拥有强大的社区支持和多种集成。通过n8n,可以轻松调用PPIO派欧云的高性能大模型API服务,构建自动化流程。配置教程包括获取PPIO的APIKey、BaseURL和ModelID,并在n8n中集成这些信息以创建聊天AIAgent。此外,还可以通过设置系统消息和添加记忆功能来个性化聊天机器人的行为和记忆能力。整个过程展示了如何利用n8n和PPIO API构建和定制智能工作流。

2025-05-09 15:39:08 1131

原创 PPIO × GPT4All:构建本地知识库,让AI更懂你

使用AI协助工作,可以大幅提升效率,但是将公司文件、客户资料上传到平台时,又会担心信息泄露,存在合规风险。又或者是由于AI缺少行业内的专业知识,生成的内容准确度不高,很难作为参考。如果通过将文档在本地电脑上分析整理,构建私有知识库,不仅能降低数据泄露风险,还能减少幻觉,让AI的回答更贴合实际业务场景。下面我们就使用GPT4All,结合PPIO派欧云提供的高性能大模型 API 服务,手把手带你构建本地知识库,让AI成为最懂你业务的“私人顾问”。注册登录派欧云,填写邀请码【JMZ5F8】得 15元代金券。

2025-05-08 17:04:24 531

原创 大模型推理成本每年降低10倍的秘密:一文了解vLLM、SGLang等6款主流推理引擎

大语言模型推理引擎的优化技术百花齐放,从底层内存管理到高层并行策略,各有侧重又相辅相成。这些技术最早由不同项目创新提出,现如今正逐步融合到主流的开源推理引擎中。对于开发者而言,理解并善用这些优化手段,将有助于在实际AI应用中以更低成本、更高效率部署强大的大语言模型。这场围绕LLM高效推理的持续演进,还将随着模型规模的扩大和新硬件的出现而不断前行。各项优化技术的交融与创新,终将推动大模型走向更加经济高效、稳定可靠的应用阶段。

2025-05-06 15:50:02 1163

原创 首发!PPIO 上线 DeepSeek-Prover-V2-671B,无门槛教程来了

刚刚,“源神” DeepSeek 又开源了!DeepSeek 在 Hugging Face 开源了一个名为 DeepSeek-Prover-V2-671B 的新模型,是一款基于 671B 参数的 MoE 大模型,结合 FP8 量化、高维嵌入、长上下文与专家选择优化,专为数理逻辑与高复杂度任务设计。

2025-04-30 20:42:01 859

原创 PPIO ×Cherry Studio :最新Qwen3上线,3分钟做好五一出行计划

五一假期将至,但出行计划还没搞定?既要考虑景点人流量,又要权衡交通和住宿成本,想出去放松一下属实不是件容易事。新发布的Qwen3可以在3分钟的时间帮你整理一份完善的出行计划。通过Cherry Studio调用的MCP工具,以及PPIO派欧云提供的高性能大模型 API 服务,Qwen3可以解析用户输入的模糊需求,实时获取高德地图的路线、交通耗时及周边设施数据,生成包含时间轴、预算表、紧急联系方式的完整攻略。

2025-04-30 18:19:58 937

原创 PPIO X OWL:一键开启任务自动化的高效革命

2024年,仅凭一PPIO X OWL:一键开启任务自动化的高效革命篇技术论文,OWL的Github仓库便在24小时斩获了15k Star,成为2024年增速最快的多智能体协作框架,重新定义了任务自动化的效率边界。Camel AI团队开源全栈方案,仅一行代码就可解锁“超参调优+资源调度+权重优化”三位一体的能力。

2025-04-27 10:13:42 717

原创 AutoGen 框架接入 PPIO API,轻松构建强大 AI Agent

是一个强大且功能丰富的框架,提供创建 AI 智能体,尤其是多代理工作流所需要的一切内容,包括框架、开发者工具和应用程序。AutoGen 的生态系统中提供分层和可扩展的框架,使用户可以在从高级API到低级组件的不同抽象级别使用框架:Core API:用于构建消息传递、事件驱动的多代理系统;支持跨语言开发,包括 .NET 和 Python。AgentChat API:以 Core API 为基础,用于构建对话式单智能体和多智能体应用程序。

2025-04-25 18:10:27 1075

原创 AI圈爆火的MCP,你最需要了解这5个关键问题

近期,一个名为 MCP 的概念正在 AI 圈子里流行,从海外火到了国内。3 月 27 日,OpenAI 宣布在 Agent SDK 中支持 MCP;4 月 4 日,谷歌宣布在 Gemini 的官方 API 文档中添加使用 MCP 的范例。加上此前提出 MCP 协议的 Anthropic,海外三大 AI 巨头已经全部投入 MCP 怀抱。

2025-04-23 10:16:26 2887

原创 PPIO×DeepChat:把AI能力放在桌面,解锁高效办公新模式

想要用AI帮忙处理文件,又担心数据不安全?为什么不试试自己接入一个桌面AI助手?DeepChat作为可接入多个开源模型的桌面AI助手,专为深度工作而设计,支持本地化部署,既能随时调用,又可以将数据存储在本地,提升隐私安全性。

2025-04-16 17:00:29 384

原创 PPIO x 沉浸式翻译:DeepSeek这个隐藏功能被我们挖出来了!

深夜的研究员快速切换着俄语技术文档,留学生秒速解析西班牙语学术论文,跨境电商从业者实时追踪日语行业动态——这些场景不再是科幻电影的特效,而是沉浸式翻译插件创造的日常奇迹。这款现象级产品自2023年横空出世,凭借大语言模型赋能的跨语种理解能力,已让数万用户实现了从「语言孤岛」到「全球信息平权」的认知跃迁。作为全网口碑炸裂的双语对照网页翻译插件,使用LLM模型,具备跨语种理解能力,能够实时翻译应用于网页阅读、 PDF 翻译、 EPUB 电子书翻译、视频双语字幕翻译等场景,并支持各种浏览器插件和应用使用。

2025-04-14 14:23:16 590

原创 无缝集成 PPIO 与 OpenAI Agents SDK,构建多代理工作流

3月12日,OpenAI 推出了 Agents SDK,彻底改变了开发者们构建 AI 应用程序的方式。是一个轻量级而功能强大的框架,用于构建多代理工作流,将人工智能代理所需的时间从几周缩短到了几分钟。该 SDK 基于 OpenAI 的强大语言模型,能帮助开发者们快速创建可理解自然语言、执行任务并与用户交互的智能代理,并兼容任何支持 OpenAI Chat Completions API 格式的模型提供商。

2025-04-09 13:59:08 788

原创 别让DeepSeek卡顿拖垮AI创意!Dify×PPIO这波「高速通道建设」太狠了!

​连续三周,DeepSeek霸屏科技圈热搜。从帮程序员Debug到给大学生讲高数,这个「六边形战士」展现的惊人智慧,让人几乎忘记——AI的流畅应答背后,需要多强大的支撑。而Dify 是一家致力于通过低代码技术降低AI应用开发门槛。我们为开发者和企业提供可视化协作平台。平台采用先进的LLM技术架构,支持主流开源模型与云厂商接口的无缝对接。通过可视化工作流设计和API管理功能。现在登录Dify平台,开发者可一键部署的PPIO DeepSeek-R1 API,享受50元调用额度。

2025-04-09 11:49:00 299

原创 Manus 一码难求?PPIO × OpenManus 开源替代方案来了!

在AI领域,Manus 近来崭露头角,作为一款AI Agent,Manus 直接颠覆了人们过往对于Agent的想象,光靠一个Demo 视频,就造成了邀请码一码难求的现象。但好消息是,迅速行动,仅花3小时就复刻并推出了开源版本——,在极短的时间内就在 GitHub 上已经获得了近 28k star。

2025-04-09 10:18:15 890

原创 PPIO × UI-TARS:用自然语言操控电脑,AI Agent 的极致体验

Manus的爆火预示着AI 正在从单纯的文本生成和图像识别迈向更复杂的交互场景。字节跳动近期推出的开源项目 UI-TARS Desktop 为我们展示了一种全新的可能性:能够通过自然语言理解和处理来控制计算机界面。这款工具代表了人工智能与人机交互领域的重大突破,为用户提供了一种全新的、更加自然的方式来操作计算机系统。在项目落地实践中,高效稳定的底层模型支撑很关键,

2025-04-08 19:58:04 1310

原创 告别每月 200 刀!PPIO x Deep Searcher:10分钟构建企业级AI私有知识库

前段时间,OpenAI 的 Deep Research 与 X 平台主推的 Grok Deepsearch 强大的信息整合能力让大家眼前一亮。但每月200美金的高昂订阅成本、仅限单一模型,依赖社交数据等现状,还是造成了部分应用场景的局限,在专业领域应用时难以满足部分开发者的严苛要求。而现在,专注于向量数据库的在开发者社区给出了新的解法——接近6k stars的订阅成本:即刻部署,使用可切换:自由切换DeepSeek/Qwen等顶尖大模型。

2025-04-08 19:29:44 1632

原创 高主频CPU+RTX4090:AI生图性能优化超150%

结论 研究证实,在AI图像生成场景中,相较于低频企业级CPU,高频消费级CPU搭配RTX 4090显卡可实现150%的性能飞跃,同时显著降低硬件成本。升级至RTX 4090显卡搭配高频CPU,即刻获得生成速度与输出质量的双重提升,革新您的AI图像生成工作流。ComfyUI设置优化对图像生成速度的影响 验证高主频CPU的优势之后,我们来进一步探索提升图像生成速度的方法。消费级高主频CPU搭配 RTX 4090显卡可以显著提高AI生图的性能,相比于企业级CPU具有更大的吞吐量和更优的成本效益。

2025-03-17 18:24:08 898

原创 EP 架构:未来主流方向还是特定场景最优解?

反之,预填充阶段资源不足,则会拖慢整个推理速度。假设我们在8张H100的机器上运行DeepSeek V3模型,输入的prompt长度是1k,则推理阶段激活的9个专家参数大小约为22G,KV Cache则只有30M左右,实际推理中,专家参数与KV Cache都需要加载到显卡当中。假设我们在8张H100的机器上运行DeepSeek V3模型,输入的prompt长度是1k,则推理阶段激活的9个专家参数大小约为22G,KV Cache则只有30M左右,实际推理中,专家参数与KV Cache都需要加载到显卡当中。

2025-03-04 10:12:46 1448

原创 DeepGEMM重磅开源!PPIO实测一手性能数据,MoE模型推理效率显著提升

GEMM(General Matrix Multiplication) 是深度学习中最基础、最重要的计算算子,GEMM优化是高性能AI计算的核心。DeepGEMM是一个专为加速深度学习中关键GEMM运算而设计的开源库,通过提高GEMM计算效率,直接提升整个网络的性能表现。根据评测结果显示,DeepGEMM在H100、H200和H800等多款GPU上均展现出显著的性能优化能力,体现了其良好的通用性。

2025-02-28 14:55:08 804

原创 DeepSeek推出DeepEP:首个开源EP通信库,让MoE模型训练与推理起飞!

在深入了解 DeepEP 之前,我们需要先理解什么是 EP。EP 是一种专为 MoE 设计的分布式计算方法。而 MoE 是一种基于 Transformer 的模型架构,采用稀疏策略,使其相比传统的密集模型在训练时更加轻量化。在这种 MoE 神经网络架构中,每次仅使用模型中部分组件(称为“专家”)来处理输入。这种方法具有多项优势,包括更高效的训练、更快的推理速度,即使模型规模更大依然如此。换句话说,在相同的计算资源预算下,与训练一个完整的密集模型相比,MoE 可以支持更大的模型或更大的数据集。

2025-02-26 17:01:22 1566

原创 DeepSeek开源FlashMLA:Hopper GPU解码新标杆,PPIO测评大揭秘!

HopperGPU:NVIDIA推出的新一代高性能GPU架构,专为AI和高性能计算(HPC)设计。它采用先进制程技术和创新架构,在复杂计算任务中提供卓越的性能和能效。主流的Hopper GPU包括H20、H100、H200和H800。解码内核:专门用于加速解码任务的硬件或软件模块。在AI推理中,解码内核能显著提升模型推理的速度和效率,尤其是在处理序列数据时。MLA。

2025-02-26 16:56:20 634

转载 如何选择虚拟机或容器

虚拟机是一种软件技术,它允许多个操作系统在同一台物理服务器上运行。每个虚拟机都拥有自己的操作系统和应用程序,它们通过虚拟化层与物理硬件隔离开来。

2024-09-13 20:38:10 179

转载 如何给运行中的容器动态增加端口映射

如果要增加新的端口映射,传统的方法是停止容器并重新启动它,这样可能会导致服务中断,这在生产环境中是不可接受的。这种方式可以彻底给容器增加端口映射,但同时也有副作用,就是本机的所有容器都因 dockerd 的重启而被迫停止,如果容器没有配置自动启动,那么即使 dockerd 启动后,容器也不会自动启动。在Docker 中,容器内部的端口和宿主机的端口是通过端口映射来关联的。对于需要频繁更改端口映射的应用,建议在设计初期考虑灵活的网络架构,避免在容器运行期间频繁修改端口映射,以减少对服务的影响。

2024-09-12 19:42:08 383

原创 压力给到 Google,OpenAI 发布 GPT-4o 来了

GPT-4 是 OpenAI 此前的旗舰模型,可以处理由图像和文本混合而成的信息,并能完成诸如从图像中提取文字或描述图像内容等任务,GPT-4o 则在此基础上新增了语音处理能力。听起来,GPT-4o 的语音也太自然了,对答如流,可以唱歌,回应还可以有幽默娇羞这些情绪。相较于之前的模型,GPT-4o在语音交互方面实现了显著进步。以往的 ChatGPT 对话模式存在较高的延迟,而 GPT-4o 通过一个统一的模型直接处理所有输入和输出,无需通过多个模型转换,从而减少了信息丢失,提升了交互的直接性和效率。

2024-05-14 10:14:16 688

原创 全网首发,Llama3 实测 RTX 4090 性能

自从 Llama3 模型发布以来,它在多个领域引起了极大的关注,并激发了众多基于该模型的演示应用程序的开发。这些应用程序的表现和效果不仅依赖于 Llama3 模型自身的对话能力、逻辑推理和上下文理解等核心特性,而且在实际部署和运行中,它们的表现也极大地受到计算资源的制约。在现实世界的应用场景中,一定规模的语言模型,尤其是像 Llama3 这样复杂的模型,需要大量的计算资源来支持其运行。这包括但不限于处理能力(CPU 或 GPU)、内存、存储空间以及网络带宽。

2024-04-26 18:46:51 4580 2

原创 探索 AI 新高度:NVIDIA RTX 4090显卡性能全面解析

NVIDIA GeForce RTX 4090 在性能、效率和 AI 驱动的图形领域实现了质的飞跃。这款 GPU 采用 NVIDIA Ada Lovelace 架构,配备 24 GB 的 GDDR6X 显存。此外,RTX 4090还引入了多项创新技术。例如,它支持 DirectX12Ultimate,能够在即将推出的视频游戏中支持硬件光线追踪和可变速率着色,为用户带来更加逼真的游戏画面。同时,其采用的第三代光线追踪核心和第四代 Tensor 内核,使得显卡在光线追踪和 AI 辅助渲染方面的性能达到新的高度。

2024-04-24 11:34:46 25145 3

原创 快人一步,即刻在线体验 Llama 3

无需部署,即刻体验 Llama 3 !

2024-04-19 19:24:31 667

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除