自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(93)
  • 收藏
  • 关注

原创 Dev Weekly | 魔乐一周速递(1.17-1.26)

专区汇聚前沿技术干货、高效实用工具、超50+优质量化模型(覆盖 DeepSeek、Qwen、GLM、Kimi 等主流系列),更沉淀丰富实战经验与专属活动。GLM-4.7-Flash是一个混合思考模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化部署提供了一个兼顾性能与效率的新选择~国内首个开源的全自主创新训练的千亿参数细粒度MoE语义大模型,在问答、写作、数学、代码、Agent等多维度比肩业内头部~★[模型] 星辰语义大模型-TeleChat3。2、🚀 大模型量化专区来了。

2026-01-27 17:46:10 58

转载 奖金池200万元!FlagOS开放计算全球挑战赛邀您参赛!

在人工智能浪潮中,大模型的快速发展正深刻重塑千行百业,但同时也带来了前所未有的技术挑战与性能瓶颈。一方面,模型规模激增使得底层算子性能成为制约训练推理效率的关键因素;另一方面,面对有限的算力资源,如何实现极致推理吞吐,降低部署成本,已成为产业落地的核心难题。此外,模型进化严重依赖高质量数据,而传统长上下文、复杂场景的数据标注工作成本高昂、效率低下,阻碍了技术的敏捷迭代与应用深化。为了系统应对这些挑战,赋能开发者突破瓶颈,FlagOS开放计算全球挑战赛应运而生。

2026-01-27 17:33:50 28

原创 开源、免费、小而强,GLM-4.7-Flash上线魔乐社区

在SWE-bench Verified、τ²-Bench等主流基准测试中,GLM-4.7-Flash的综合表现超过gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得开源SOTA分数。在编程场景之外,我们也推荐大家在中文写作、翻译、长文本、情感/角色扮演等通用场景中体验GLM-4.7-Flash。这是一个混合思考模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化部署提供了一个兼顾性能与效率的新选择。

2026-01-22 16:33:59 80

转载 预训练实践 | 国内首个全国产化千亿参数细粒度开源MoE语义大模型TeleChat3-105B-A4.7B-Thinking

TeleChat3-105B-A4.7-Thinking是 TeleChat系列国内首个开源的全自主创新千亿参数细粒度MoE语义大模型,由中国电信人工智能研究院(TeleAI)研发训练,在问答、写作、数学、代码、Agent等多维度,与业内头部模型比肩,特别在代码能力、复杂任务通用问答、细粒度MoE等维度上有显著的效果提升,同时采用创新训练方式,加快模型在训练初期的收敛速度,增强模型在训练中的稳定性。具体请参考 TeleChat3(https://github.com/Tele-AI/TeleChat3)。

2026-01-22 16:31:10 46

转载 DeepResearch终于本地化了!8B端侧写作智能体AgentCPM-Report开源上线魔乐社区!

1月20日,由清华大学自然语言处理实验室、中国人民大学、面壁智能与OpenBMB开源社区联合研发的AgentCPM-Report开源。这是一个本地化、私有化、却拥有SOTA性能的深度调研智能体,它以端侧模型为核心,实现了比肩顶级闭源系统的报告写作能力。

2026-01-21 10:39:46 122

原创 魔珐星云Demo登陆魔乐社区,0门槛解锁3D数字人交互新体验

随着 LLM(大语言模型)的狂飙突进,我们早已习惯了与 AI 进行文字这种“神交”。但你是否畅想过,下一代的AI交互不再是冰冷的字符流,而是一个看着你、听得懂你、甚至能用微表情和肢体语言回应你的超写实3D数字人?今天,魔珐科技(XMOV)携手魔乐社区,正式上线了 「魔珐星云智能客服Demo」!🚀 无需复杂的本地环境配置,点击网页即可体验“有形象、有思想、能表达”的企业级3D AI交互。👇 点击下方链接,直达魔乐社区-魔珐星云Demo。

2026-01-20 16:30:30 582

原创 首个国产芯片训练SOTA模型GLM-Image上线,基于昇腾玩转推理

1月14日,智谱联合华为开源新一代图像生成模型GLM-Image,模型基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的SOTA多模态模型。GLM-Image采用自主创新的「自回归+扩散解码器」混合架构,实现了图像生成与语言模型的联合,是智谱面向以Nano Banana Pro为代表的新一代「认知型生成」技术范式的一次重要探索。GLM-Image已上线魔乐社区, 同步上线基于昇腾和MindIE的推理实践。

2026-01-20 16:28:41 596

转载 MiniMax开源新评测集上线魔乐社区,定义Coding Agent的生产级标准

1月14日,MiniMax开源首个面向Coding Agent的系统性评测集OctoCodingBench,从Check-level准确率(CSR)、 Instance-level成功率(ISR)两个维度来进行评估。其中,ISR则用来衡量Coding Agent是否遵循了每条规则。评测结果显示,部分开源模型在ISR上已快速逼近甚至超越部分闭源模型。

2026-01-20 16:27:13 35

转载 AgentCPM-Explore开源上线魔乐社区,4B参数突破端侧智能体模型性能壁垒

我们不仅开源了模型,更开源了 从 Base 模型(GAIA25.24%)进化至 SOTA 模型(GAIA63.90%)的全流程代码。通过以下三大基建,开发者可以轻松复现性能翻倍的训练过程,并快速实现私有化部署与自定义扩展。(1)AgentDock:工具沙盒统一管理调度平台高并发工具集成: 原生支持 16 个 MCP 服务及百余种工具。通过多版本轮询与负载均衡机制,支持核心高频使用工具 100+QPS 高并发调用。健全容错机制。

2026-01-20 16:22:37 19

原创 基于msModelslim量化实操--上手版

摘要 本文介绍了大模型量化技术的核心原理与实践方法。随着AI模型参数规模呈指数级增长,量化技术成为降低计算成本、提升推理效率的关键手段。文章详细阐述了量化的三大优势:减小模型体积、提升推理性能和降低部署成本。通过将高精度浮点数转换为低比特整数(如INT8/INT4),量化可在精度损失可控的前提下显著优化模型性能。实践部分指导读者在昇腾NPU环境中使用msModelSlim工具完成W8A8量化流程,包括环境配置、模型下载、量化执行和性能评估等关键步骤。该技术可帮助开发者在有限硬件资源下部署更大规模的AI模型,

2025-12-09 17:51:04 1319 1

原创 大模型推理适配实战:手把手带你完成vLLM Ascend迁移实操

本文详细介绍了在魔乐社区部署多模态大模型推理服务的完整流程。首先配置基于OpenEuler的NPU开发环境,安装LLaMA-Factory等依赖包并进行环境验证。接着演示了如何下载Qwen2.5-VL-3B-Instruct等模型权重,并提供了三种推理部署方式:交互式终端、OpenAI兼容API服务以及离线推理脚本。重点说明了多模态模型处理图像输入的注意事项,包括正确的占位符使用方式。最后指导用户将验证通过的模型上传至魔乐社区模型库,包括创建模型仓库、设置Git LFS跟踪大文件等步骤。整个过程涵盖了从环境

2025-09-20 09:30:35 2234 1

原创 昇腾+vLLM快速上手Qwen3-Next,实操指南!

手把手教你用vLLM Ascend在昇腾上运行Qwen3-Next

2025-09-17 09:50:39 1478 2

原创 昇腾底座+SGLang框架,成功实现Qwen3-Next Day0首发!

Qwen3-Next-80B-A3B-Thinking在复杂推理任务上表现卓越,不仅优于预训练成本更高的Qwen3-30B-A3B-Thinking-2507与Qwen3-32B-Thinking,更在多项基准测试中。基于Qwen3-Next-80B-A3B-Base模型, 千问团队同步开发并发布了Qwen3-Next-80B-A3B-Instruct与Qwen3-Next-80B-A3B-Thinking。该Base模型实现了与Qwen3-32B dense模型相近甚至略好的性能,而。

2025-09-15 13:34:03 1352 2

原创 昇腾算力加持,深度思考模型Colossal-R1上线魔乐社区

潞晨Colossal-R1已上线魔乐社区,欢迎下载体验

2025-08-29 15:49:47 528

原创 MiniCPM-V4.0开源并上线魔乐社区,多模态能力进化,手机可用,还有最全CookBook!

面壁小钢炮新一代多模态模型 MiniCPM-V 4.0 正式开源并上线魔乐社区,欢迎体验!

2025-08-22 09:52:35 846

原创 支持轻量化部署的混元3D世界模型Lite版本上线魔乐社区,昇腾部署实践来啦

腾讯混元3D世界模型推出Lite版本,来看看如何基于昇腾玩转该模型

2025-08-22 09:50:50 1009

原创 让改图更easy!基于昇腾玩转全能图像编辑模型Qwen-Image-Edit

Qwen-Image-Edit上线魔乐社区,欢迎下载体验!

2025-08-21 14:20:39 951

原创 告别画图时的文字乱码!基于昇腾玩转文生图模型Qwen-Image

Qwen-Image已上线魔乐社区,欢迎下载体验!

2025-08-21 14:16:40 1476 1

原创 OpenAI重新开源!gpt-oss-20b适配昇腾并上线魔乐社区

魔乐社区上线gpt-oss-20b,昇腾适配,欢迎体验!

2025-08-21 14:12:06 755

原创 MindSpeed LLM适配Qwen3新模型并上线魔乐社区,快速部署与推理教程来啦!

Qwen3近期新模型已上线魔乐社区,欢迎体验!

2025-08-21 14:08:41 1140

原创 基于昇腾玩转电影级视频生成模型Wan 2.2

Wan2.2模型已上线魔乐社区,欢迎下载体验!

2025-08-21 13:23:19 1562

原创 0day首发!基于昇腾MindSpeed LLM玩转GLM-4.5-Air最新MoE模型

GLM-4.5已上线魔乐社区,欢迎下载体验!

2025-08-21 13:16:06 974

原创 潞晨昇腾技术联创:昇腾RL深度思考模型解决方案发布,Open-Sora 2.0模型上线魔乐社区

Open-Sora 2.0模型已经完成对昇腾硬件的全面适配,相关模型权重已开源并上传至魔乐社区,开发者可快速下载使用

2025-08-21 12:41:12 742

原创 魔乐社区开发者实践系列(三):行业模型微调实践

本文以法律行业为背景,教你利用Mind应用使能套件微调训练行业模型

2025-08-21 12:16:08 1077

原创 魔乐开发者教程 | 基于openMind实现大模型微调指南(二):大模型微调实操

超全面实战教程!从概念到代码的完整流程,手把手教你微调大模型

2025-08-21 12:09:28 1224

原创 魔乐开发者教程 | 基于openMind实现大模型微调指南(一):大模型基础与微调入门

超全面指南!带你入门大模型基础和微调

2025-08-21 11:50:20 1045

原创 魔乐开发者教程 | 基于Gradio和国产算力的应用创建全流程指南

手把手教你如何在魔乐社区基于Gradio框架创建并部署一个AI对话助手应用

2025-08-21 11:37:59 1012

原创 开源即支持!基于昇腾MindSpeed MM玩转GLM-4.1V-Thinking多模态理解最新模型

模型已上线魔乐社区,欢迎体验!

2025-08-21 11:26:46 953

原创 开源首发,昇思MindSpore支持盘古Pro一键部署,内附手把手教程

MindSpore版盘古Pro MoE上线魔乐社区啦

2025-08-21 10:35:05 1158

原创 在魔乐社区基于LazyLLM搭建你的个人知识助手

手把手教你基于LazyLLM快速搭建RAG应用

2025-08-21 09:35:52 948

原创 魔乐社区国产算力应用创新大赛重磅开启!

魔乐社区国产算力应用创新大赛开启报名!面向开发者、研究者和技术爱好者征集创新应用打榜。参赛者将有机会分享20万元奖金池,并获得行业关注推动国产算力应用落地。大赛期间将同步进行线上直播,详情可关注魔乐社区视频号预约观看。报名通道已开启,期待您的参与!

2025-06-25 18:48:30 231

原创 基于昇腾MindSpeed MM玩转Open-Sora Plan V1.5模型

Open-Sora Plan系列是大型多模态生成模型,使用当前比较前沿的DiT (Diffusion Transformer) 生成模型架构,该模型根据各种用户输入生成所需的高分辨率长时视频。Open-Sora Plan V1.5模型具有以下特征。

2025-06-09 14:55:12 935

原创 0day同步!昇思MindSpore框架成功适配面壁MiniCPM4.0模型并上线魔乐社区

6 月 6 号,面壁智能正式发布并开源了端侧「小钢炮」系列最新力作——MiniCPM 4.0 模型,实现了最快震撼的 220 倍极限加速!昇思MindSpore框架对齐主流生态接口,不断提升HuggingFace Transformers类模型接入vllm-mindspore框架效率,同时基于vLLM推理框架与MindSpore One套件,0day支持MiniCPM4.0双尺寸模型快速适配。欢迎广大开发者下载体验!MindSpore-vLLM代码仓:🔗魔乐社区体验指导链接:

2025-06-09 14:37:37 918

原创 昇思版本DeepSeek-R1-0528上线魔乐社区

不到10行代码、小时级完成适配,还有原始权重一站直达

2025-06-04 10:22:08 804

原创 TeleAI发布TeleChat2.5及T1正式版,双双开源上线魔乐社区!

中国电信开源TeleChat系列大模型,包含35B/115B两种尺寸的复杂推理模型T1和通用问答模型2.5版本。该系列基于昇思MindSpore+vLLM打造,在理科、编程等任务上表现突出。开发者可通过魔乐社区下载模型(需67GB空间),支持Atlas800服务器部署,提供服务化和离线两种推理方式。评测显示模型在数理逻辑、指令遵循等方面有显著提升,现开源四个模型版本供开发者体验。

2025-05-29 11:27:45 1221

原创 0Day适配!Qwen3一发布昇腾即全系列支持并上线魔乐社区

Qwen3系列大语言模型于2025年4月29日发布,包含235B至0.6B等多种参数规模的密集型和MoE架构模型。该系列在预训练数据量(36万亿token)、多语言支持(119种)和性能表现上显著提升,其中235B版本在多项基准测试中展现竞争力。昇腾平台实现0Day适配,提供完整的训练推理支持,包括MindSpeed训练框架和MindIE推理引擎。开发者可通过魔乐社区获取模型资源,并参考详细的环境配置、权重转换、训练推理等教程快速上手。Qwen3支持思考/非思考两种推理模式,适用于不同场景需求。

2025-05-29 11:13:09 1929

原创 昇腾首发支持,阶跃星辰 “改图大师” Step1X-Edit开源并上线魔乐社区

阶跃星辰发布开源图像编辑大模型Step1X-Edit,该19B参数模型融合MLLM与DiT架构,具备语义精准解析、身份一致性保持和高精度区域级控制三大核心能力,支持11类图像编辑任务。该模型已上线魔乐社区并获昇腾平台首发支持,提供从环境配置到推理部署的完整方案,开发者可通过官方链接下载体验。案例展示显示其能精准执行"添加项链""替换物体""风格重绘"等复杂编辑指令。

2025-05-29 11:02:11 624

原创 基于昇腾MindSpeed训练加速库玩转智谱GLM-4-0414模型

智谱AI发布GLM-4-0414系列大模型,包含32B和9B两种参数规模,涵盖基础、推理和沉思等模型类型,采用MIT开源协议。其中32B推理模型性能对标业界领先水平,实测推理速度达200 Tokens/秒。文档详细介绍了基于MindSpeed-LLM的部署流程,包括环境配置、权重转换、数据预处理、训练推理等完整实践指南。开发者可通过魔乐社区获取6个不同版本的模型下载链接。

2025-05-29 10:44:40 971

原创 推理模型性能比肩世界先进水平!智谱GLM-4-0414系列模型昇腾MindIE部署实战

智谱AI于4月15日开源GLM-4-0414系列模型,包含32B/9B两种尺寸的基座、推理和沉思模型,均采用MIT许可。其中32B推理模型性能媲美DeepSeek-R1等顶尖模型,推理速度达200Tokens/秒。该系列模型在数学推理、代码生成等任务表现优异,部分指标接近GPT-4o水平。昇腾MindIE提供开箱即用的部署支持。开发者可通过魔乐社区获取模型权重和详细部署指南,包含容器配置、环境设置及服务化推理等完整教程。

2025-05-29 10:34:30 1269

原创 首发支持! 基于昇腾MindIE玩转InternVL3多模态理解最新模型

上海AI实验室开源了多模态大模型InternVL3.0,该模型在10亿-780亿参数规模下均取得开源模型性能第一,并在GUI智能体、图纸理解等专业场景表现出色。评测显示其性能接近闭源模型Gemini-2.5-Pro。模型已适配昇腾MindIE和MindSpeed平台,开发者可通过魔乐社区下载不同参数版本。文档详细说明了基于昇腾平台的部署流程,包括环境配置、容器创建及服务化推理方法,支持图像/视频理解等任务。该模型的开源为多模态AI应用提供了新选择。

2025-05-29 10:23:57 1785 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除