自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(52)
  • 收藏
  • 关注

原创 活动报名 | “大模型 + 行业创新应用实践” 线下 Meetup

魔乐社区重磅推出GeekDay系列线下活动,聚焦人工智能领域前沿技术,打造开发者深度交流与共创的开放平台。活动内容从行业专家分享大模型、AIGC、行业应用热点话题展开,并通过代码实战、工具演练,助力开发者从技术理论走向落地。无论你是AI领域的技术极客、创新实践者,还是渴望探索边界的学习者,这里都将为你提供知识沉淀、经验共享与资源对接的多元场景。加入GeekDay,与志同道合的伙伴实现技术同频,共同成长!

2025-04-14 16:45:37 208

原创 DeepSeek-V3-0324新模型来袭,推理能力超GPT-4.5,MindIE部署轻松上手!

DeepSeek V3 的新版本模型 DeepSeek-V3-0324 借鉴 DeepSeek-R1 中的强化学习技术,参数量只增加至 685B,推理能力却大幅提升,在数学、代码类任务上超过GPT-4.5!相较于第一代 V3,基准测试的准确率最高提升了近20%。新版本V3 还具有更强的中文写作和搜索能力。新模型采用 MIT License,允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。MindIE 支持 DeepSeek-V3-0324 部署推理,该模型已上线魔乐社区,欢迎广大开发者下载体验!

2025-04-14 16:40:01 896

原创 快速支持DeepSeek-V3-0324,昇思MindSpore+vLLM服务化部署开源版本上线魔乐社区

近日,基于昇思 MindSpore AI 框架+vLLM的DeepSeek-V3-0324 模型完成适配并上线魔乐社区。

2025-04-08 09:21:11 217

原创 基于昇腾MindIE开箱部署Qwen2.5-VL-32B,体验更聪明的多模态理解能力

昇腾MindIE已适配支持Qwen2.5-VL-32B-Instruct并上架魔乐社区,欢迎广大开发者下载体验!

2025-03-31 14:50:38 1354 2

原创 数字人开源神器HeyGem.ai快速部署教程来啦,新手也能轻松上手!

2025年3月,硅基智能正式开源发布全球Top级数字人模型HeyGem.ai,迅速成为开发者社区热议焦点。用户仅需一张照片或一秒视频,即可生成高度逼真的数字分身,完整复刻面容与声音,并在60秒内输出4K高清视频口播。更令人兴奋的是,HeyGem.ai采取了免费、无限制、完全离线运行的开源策略,用户最低仅需一块NVIDIA 1080Ti显卡,即可在本地实现完整的数字人克隆和视频合成,无需额外的算力投入,技术小白也能0门槛上手!

2025-03-31 14:41:30 2983

原创 阶跃星辰Step-Video-TI2V昇腾MindIE首发支持,已上线魔乐社区,最佳实践来啦!

昇腾MindIE首发支持Step-Video-TI2V, 魔乐社区已上线该模型,欢迎广大开发者下载体验!

2025-03-21 10:31:36 694

转载 基于昇腾+MindSpore,来魔乐社区玩转HunyuanVideo-I2V图生视频!

本文将详细介绍,如何基于昇思MindSpore和Atlas 800T A2,完整实现HunyuanVideo-I2V从图像到视频生成的部署流程。

2025-03-20 10:56:23 48

原创 基于Atlas 800I A2的RAG端到端实践

本文以Dify为例,介绍了从0开始基于DeepSeek蒸馏模型,构建RAG系统的端到端实践。

2025-03-13 10:01:42 1093

原创 手把手教你在边缘开发板部署DeepSeek系列蒸馏模型

想要在香橙派上快速部署 DeepSeek模型?魔乐社区联合华为昇腾和香橙派,已为你准备好了“一键资源包” -- AI PC专区,帮助开发者快速上手端侧模型推理

2025-03-11 10:25:21 698

原创 DeepSeek昇腾部署技术问题FAQ

在进行DeepSeek昇腾部署时,你是否遇到了问题?本文汇总了常见问题,助你快速定位并迅速部署DeepSeek。

2025-03-10 15:23:01 1259

原创 昇思MindSpore支持QwQ-32B并上线魔乐社区

昇思MindSpore原生支持Qwen2.5-32B, 在此基础上0Day完成QwQ-32B的支持,并且完成性能测试。魔乐社区已第一时间上架该模型,欢迎广大开发者下载体验!此外,MindSpore将于近期支持vLLM推理框架部署,敬请期待!🔗 模型链接:https://modelers.cn/models/MindSpore-Lab/QwQ-32B

2025-03-10 14:56:40 1013

原创 QwQ-32B昇腾版上线魔乐社区,MindIE原生支持,部署实践请查收!

昇腾MindIE原生支持QwQ-32B, 魔乐社区已第一时间上架该模型,欢迎广大开发者下载体验!模型链接:🔗 https://modelers.cn/models/Models_Ecosystem/QwQ-32B

2025-03-10 14:50:30 1337

原创 DeepSeek应用最佳实践之量化

DeepSeek模型量化的最佳实践

2025-03-03 10:23:15 1462

原创 DeepSeek R1应用最佳实践之提示词优化

今天,我们为大家带来本地部署的R1模型Prompt优化实践,涵盖优化成果、推理过程解析以及官方使用建议,优化后回答效果从效果丰富度、想象力、稳定性三块均有大幅提升。

2025-02-27 14:10:31 1992

原创 手把手教你玩转DeepSeek-R1量化模型

为了更好提升推理性能,让企业使用DeepSeek模型服务更高效,社区还提供了DeepSeek INT8量化模型,欢迎开发者从魔乐社区获取使用。

2025-02-27 14:07:08 827

原创 一文吃透模型量化,解锁DeepSeek轻量级部署密码

量化技术就像神奇的魔法,一边稳稳保住DeepSeek 模型的高精度,一边还能把模型的计算效率和资源占用问题轻松搞定。这样一来,模型在实际应用中就能表现得更加出色,开发者和企业也能享受到更加灵活高效的部署方式。

2025-02-27 14:01:01 1378

原创 DeepSeek在昇腾上的模型部署 - 常见问题及解决方案

2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持昇腾,用户可在昇腾硬件和MindIE推理引擎上实现高效推理,但在实际操作中,部署流程与常见问题困扰着不少开发者。本文将为你详细阐述昇腾DeepSeek模型部署的常见问题及解决方案。

2025-02-27 13:47:56 1320 1

原创 DeepSeek模型昇腾部署优秀实践

2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持昇腾,用户可在昇腾硬件和MindIE推理引擎上实现高效推理,但在实际操作中,部署流程与常见问题困扰着不少开发者。本文将为你详细阐述昇腾 DeepSeek 模型部署的优秀实践。

2025-02-27 13:46:19 1289

原创 昇腾MindIE多机集群推理自动化部署的“神器”来袭! 支持Deepseek R1/V3满血版

在传统的AI模型部署过程中,工程师们常常面临着诸多挑战。多机集群的配置复杂,手动部署不仅耗时费力,还容易出现错误。昇腾MindIE多机集群推理自动化工具的出现,正是为了解决这些痛点。它通过自动化的部署流程,极大地简化了多机集群推理的复杂性,让工程师们能够更专注于模型的开发和优化,而不是被繁琐的部署细节所困扰。目前该工具已上线魔乐社区,欢迎体验!

2025-02-27 13:41:17 1141

原创 DeepSeek应用最佳实践之蒸馏模型

DeepSeek 团队基于 Qwen2.5-Math-1.5B, Qwen2.5-Math-7B, Qwen2.5-14B, Qwen2.5-32B, Llama-3.1-8B, and Llama-3.3-70B-Instruct 作为基础模型,通过使用DeepSeek-R1生成的80万个推理数据样本,对这些基础模型进行微调,从而生成出新的蒸馏模型。蒸馏过程将大型模型(教师模型)的推理能力转移到较小的模型(学生模型),使其在推理任务中实现有竞争力的性能,同时提高计算效率,便于部署。

2025-02-27 09:59:26 820

原创 直播预告 | 连播2天!DeepSeek爆红密码+对AI技术、职业与商业的影响

2 月 25 日至 2 月 26 日,魔乐Modelers Devtalk栏目重磅来袭!同时带来 DeepSeek 系列直播,解析 DeepSeek 爆火背后的效率革命以及对AI技术、职业与商业的影响,带你深度思考DeepSeek背后的关键问题,更有直播福利可领!📅 欢迎各位AI开发者和爱好者前来直播间探讨遇到的问题与经验,一同探索 DeepSeek 的爆红密码和DeepSeek如何重塑AI 领域技术与职业的未来!

2025-02-25 11:00:29 157

原创 DeepSeek模型权重下载太慢?快来魔乐体验加速丝滑下载,和“龟速”说拜拜

为了让大家更直观地感受魔乐社区的下载速度,我们测试了社区各个DeepSeek模型权重的下载速度,魔乐社区的DeepSeek 模型权重下载速度远超HuggingFace,并行下载时R1的下载速度达130MB/s,通过社区openMind Hub工具下载速度达到138MB/s,大幅提升下载和开发效率。除了原始模型的下载加速,魔乐社区还提供了DeepSeek的量化权重下载,多个版本的DeepSeek系列模型,包括昇腾版、昇思MindSpore适配版,全方位满足不同开发环境与需求。2. 点击"下载模型"。

2025-02-14 15:52:41 1409

原创 DeepSeek 大模型微调实战(理论篇)

​在大模型的微调过程中,**LoRA(低秩适配)**参数设置是提升训练效率和性能的关键。通过减少需更新的参数量,LoRA能够在维持模型性能的同时显著降低计算成本。然而,LoRA并非唯一影响训练效果的因素。诸如学习率批次大小以及优化器(如AdamW)等参数同样在微调过程中起着至关重要的作用。学习率决定了模型每次更新的幅度,批次大小则影响了每次训练中样本的处理量,而优化器则确保模型参数的平稳更新。了解并灵活调整这些训练参数,不仅能帮助你在微调过程中得心应手,更能快速提升训练效果。

2025-01-20 11:11:01 2869

原创 DeepSeek 大模型微调实战(超详细实战篇)

​DeepSeek是由深度求索团队开发的大语言模型,本实验将基于deepseek-llm-7b-chat模型,在EmoLLM数据集进行微调,实现大模型能够以心理医生的口吻来回答我们的问题。本实验基于transformers和openMind均已实现本次微调,代码均可在github链接上查看。通过本次实验,你不仅能够完成多轮对话数据的微调,还能掌握这些方法,并将其迁移到其他微调实验中,独立进行高效的模型调优。

2025-01-20 11:09:24 6258

原创 仅用 4T 训练数据,节约 75% 以上训练成本,书生・浦语大模型 3.0 发布并上线魔乐社区

在人工智能蓬勃发展的时代,国产模型不断涌现且能力越来越强。前有DeepSeek-V3,凭借卓越性能和高性价比迅速火遍全球。紧随其后,2025年1月15日,上海人工智能实验室对书生大模型进行了重要版本升级,发布了书生・浦语3.0(InternLM3)。这一版本通过精炼数据框架,大幅提升了数据效率,并实现了思维密度的跃升。其中,InternLM3-8B-Instruct仅使用4T训练数据,综合性能却超越了同量级开源模型,训练成本节约75%以上。

2025-01-20 11:06:08 513

原创 魔乐社区新版本发布,多项功能升级等你体验

魔乐社区新版本来啦!此次openmind Library新版本带来了多项重要功能的提升和优化,包括集成微调功能、LoRA权重合并、模型部署支持以及MindOne框架下的text2image推理能力等。这些特性将简化模型开发和部署流程,提升您的工作效率和用户体验。同时,站点新增开发者积分中心功能,让您在贡献和创新的同时,享受更多的社区福利。快来了解并试试新版本,让开发工作更轻松!openMind Library v1.0.0 新增特性详解1 集成微调功能openMind Library v1.

2025-01-10 11:34:56 930

原创 GLM-PC基座模型CogAgent-9B开源

11月29日,智谱正式提出GLM-OS概念,并发布AutoGLM和GLM-PC两款Agent产品。为推动大模型Agent生态发展,智谱决定将GLM-PC的基座模型——CogAgent-9B开源,供社区进一步开发。CogAgent-9B已第一时间在魔乐社区上线,欢迎体验!(适配昇腾卡)CogAgent-9B-20241220 是基于GLM-4V-9B训练而成的专用Agent任务模型。该模型仅需屏幕截图作为输入(无需HTML等文本表征),便能根据用户指定的任意任务,结合历史操作,预测下一步的GUI操作。

2025-01-06 11:05:35 893

原创 轻松一键搞定高清证件照!

​挑选所需的背景颜色,支持红、蓝、白底等常见选项,支持美式证件照,甚至可以自定义渐变色,满足个性化需求。

2025-01-06 11:01:24 458

原创 Megrez-3B-Omni,轻松实现端上图像、音频、文本极速推理

12月16日,无问芯穹宣布正式开源无问芯穹端侧解决方案中的全模态理解小模型Megrez-3B-Omni和它的纯语言模型版本Megrez-3B-Instruct。目前模型已在魔乐社区同步首发,欢迎大家来魔乐社区体验!🔗作为无问芯穹。

2024-12-26 19:17:21 1037

原创 Qwen2.5思维链微调代码实操 + 多卡Lora微调完整代码​

思维链技术(Chain of Thought,也简称为CoT),最早由Json Wei等人在文章提出。简单来说就是通过提示词让模型能够将一个复杂的问题分步思考。比如举个文章中提到的例子(见下图),一个数学问题是:食堂有 23 个苹果。如果他们用掉了 20 个来做午餐,又买了 6 个,现在他们有多少个苹果?食堂有23个苹果,用了20个,所以是23-20=3又买了6个,所以是3+6=9共有9个苹果当然这个思维过程还能猜的更碎。

2024-12-20 10:58:37 1006

原创 魔乐+SwanLab: 快速可视化跟踪模型微调

SwanLab是一款开源、轻量级的AI实验跟踪工具,提供了一个跟踪、比较、和协作实验的平台,旨在加速AI研发团队100倍的研发效率。其提供了友好的API和漂亮的界面,结合了超参数跟踪、指标记录、在线协作、实验链接分享、实时消息通知等功能,让您可以快速跟踪ML实验、可视化过程、分享给同伴。借助SwanLab,科研人员可以沉淀自己的每一次训练经验,与合作者无缝地交流和协作,机器学习工程师可以更快地开发可用于生产的模型。

2024-12-13 17:46:57 859

原创 魔乐社区新版来袭,全新功能等您来探索!

openMind Library现已新增文本生成图像功能,能够通过解析文本中的关键词、语境和风格,将创意转化为视觉图像。此外,新增SiliconDiff推理加速技术,通过SiliconDiff库对diffuser进行优化,提升部署效率和性能。openMind Library集成了MindNLP,新增基于MindNLP的文本生成任务,旨在帮助研究人员和开发者更高效地进行推理工作。

2024-12-07 11:00:42 1106

原创 文本生成音乐,MusicGen带您玩转音乐自由!

要说最近一两周AIGC领域最被关注的内容,非Suno AI莫属。作为“音乐界的ChatGPT”,Suno AI最新推出的V3模型以其生成广播质量级别音乐的非凡能力火速引爆了音乐圈,网友们也纷开始放飞自我,在AI音乐生成的二创道路上越走越远。B站网友Mr_Mr_han[1]和一玄青基于Suno AI的二创[2]

2024-11-28 16:47:35 1127

原创 魔乐空间创建体验再上新台阶,多种模板助您快速生成可运行的空间

致力于构建一个开放、包容的AI技术生态,鼓励开发者分享知识、经验和最佳实践,共同推动技术进步和创新。同时,它聚合了丰富的中文AI资源,致力于使能AI应用创新的工具,加速伙伴商业闭环。按钮,即可迅速生成一个可即时运行的应用。创建后的空间支持文件修改、日志查看与下载等便捷功能,方便您进行后续的维护与管理。欢迎大家体验,分享您的感受与建议,一起共建魔乐社区。在创建空间的时候,您只需选择对应的模板、License、算力配置和基础框架环境,然后点击。) 进行下载、推理,即可定制属于自己的demo,具体信息参考。

2024-11-24 11:12:37 365

原创 GLM4 PyTorch模型微调最佳实践

本次实践是在魔乐社区进行。如您在体验过程中遇到任何问题,欢迎访问魔乐社区的帮助中心(),与其他用户交流和寻求支持。

2024-11-20 18:17:33 1267

原创 魔乐社区新版本功能上线!欢迎体验

openMind Library提供命令行接口(command-line interface, CLI),支持用户在shell环境下交互式实现文件上传、文件下载、模型查询、模型删除、模型评估、单轮推理和多轮对话操作。openmind-cli简化了流程,让用户能够以低代码模式迅速启动并使用社区中的模型资源,实现了开箱即用的体验,降低了技术门槛。在新版本的openmind-cli中,我们特别针对单轮推理和多轮对话的操作进行了优化和增强。现在,用户可以通过新增的入参--docker。

2024-11-14 12:43:11 1104

原创 1小时搞定魔乐平台AI应用的构建和离线复现

魔乐社区的space服务是一个提供一键式快速创建AI体验空间的云平台。它为用户提供了丰富的应用模板和强大的算力资源,使得AI应用的开发和部署变得前所未有的简单。无论你是AI新手,还是经验丰富的开发者,都可以在这里找到适合自己的工具和资源。恭喜你!经过1小时的学习和实践,你已经成功在魔乐平台上构建了自己的AI应用,并且学会了如何在本地环境中离线复现。这为你的AI开发提供了更大的灵活性和自由度,让你可以随时随地展开创作。魔乐社区的space服务,旨在降低AI应用开发的门槛,让每个人都能参与到AI的世界中来。

2024-11-11 17:35:40 914

原创 NPU 基于PEFT的模型微调实践教程

PEFT(Parameter-Efficient Fine-Tuning)是一种参数高效的微调方法,用于在预训练的深度学习模型上进行微小的参数调整以适应特定任务。目前与openMind Library联动使用时,该生态库只支持PyTorch框架。本次实践是在魔乐社区进行。

2024-11-08 10:16:09 653

原创 魔乐社区(Modelers)多机多卡训练实践

当前,随着大模型参数规模的不断扩大,多机多卡分布式训练的重要性日益凸显。本指南旨在依托华为昇腾计算卡,提供一个双机16卡训练的详尽示例,更好地应对大模型的训练挑战。本次指南主要讲解如何准备双机训练的环境,以及如何通过accelerate实现双机多卡训练。本次指南使用的依赖如下:相关安装可查看指南openMind Library安装:https://modelers.cn/docs/zh/openmind-library/install.html本次指南以如下权重,数据集和脚本作为示例:● 请在运行多机多卡之

2024-11-01 18:24:02 621

原创 玩转体验空间之NoteBook

目前,NoteBook 模板已支持多种算力资源,包括 CPU 和 NPU,满足了不同用户的多样化需求。通过 NoteBook,用户不仅可以轻松实现模型训练和数据分析,还可以快速迭代开发。在 NoteBook 中,用户可以通过 requirements.txt 文件管理和安装所需的 Python 库,以支持不同项目的需求。NoteBook 的核心原理基于 Jupyter Lab,这是一款广泛使用的开源 Web 应用,允许用户创建和共享文档,这些文档中可以包含代码、方程式、可视化和文本。

2024-10-25 18:34:02 1131

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除