- 博客(216)
- 收藏
- 关注
原创 来看看,Claude Code使用能力层级,你在哪一级?_2026-04-16
大家好,我是小九。社区老有人问:“你用的Claude Code是不是开了挂?咋我跑出来的全是‘紫色渐变+同款图标’的赛博朋克流水线废品?这真不是版本问题,是咱们用的“颗粒度”和“段位”没对齐!我认为Claude Code就像一把宝剑,在不同宗门和不同水平的剑客手中,它就是不一样的东西了。今天就给大家分享一下Claude Code的能力级别层次。从“提示词工具人”到“多代理协调者”,比较干,我懒得配图,希望大家尽快到达“光明顶”,告别无效内卷。精神好了,下班后才能安心去干饭是吧~一起冲鸭!
2026-04-17 15:42:22
308
原创 阿里云 Coding Plan Lite 下架,各家算力吃紧,上哪买还能支持GLM-5和5.1的coding plan?_2026-04-15
之前我感觉哪家都在推出coding plan,现在我感觉哪家都在上调套餐价格和限购。前两天还有一条新闻侧面反映出了形势:从 4 月 18 日起,阿里云和百度智能云正式上调 AI 算力价格,涨幅 5%-34%,腾讯云的模型服务价格更是涨了最高 456%。米娜桑,算力真的不够用了,珍惜现在还在卖coding plan的平台吧~今天来盘一下,目前市面上的coding plan是什么情况?还有哪些可以买?本文所有coding plan套餐数据截至2026年4月14日,之后如果有调整,就以官方最新的为准。
2026-04-16 14:04:13
387
原创 好家伙,这有一个Notebook LM 的“野生 API“,可以用Claude Code免费用 Google 大模型
总结一:英文提示词效果明显更好Google 的大模型底座还是以英文为核心的,英文理解 + 英文生成的质量都更稳定。中文明明也能跑,但速度和数据处理质量都差点意思。总结二:能用 API 就别用 Web UI——但要随时准备好 Plan B这套方案的精髓在于自动化——一次写好提示词,流程跑起来,后续躺着收结果。但非官方 API 的脆弱性是真实存在的。建议把它当做一个"有生命周期"的工具,别 all in。总结三:这玩法适合谁?经常要做市场调研、行业分析的渠道/甲方同学需要批量处理文档的知识管理岗。
2026-04-13 16:31:03
383
原创 继阿里百度后,腾讯云宣布5.9号起AI算力开始涨价,靠免费、低价算力过日子的时代彻底结束了。
CPU KV 缓存卸载,是当前大模型推理最实用的显存救星技术。简单说:当 GPU 显存不够存放全量 KV Cache 时,系统自动把不活跃、低优先级的 KV 数据换出到 CPU 内存,需要时再快速换回 GPU。长上下文、多模态模型 KV 体积爆炸,GPU 显存极易占满高并发场景下吞吐量上不去、服务容易 OOM硬件成本居高不下,小团队/个人开发者扛不住和普通内存交换不同,工业级 KV 卸载块级别粒度调度,不整段搬运低延迟、预取、异步换入换出。
2026-04-10 14:02:59
391
原创 看遍了市面上的coding plan,我发现还是这个好用
OpenClaw 本质上就是个“吞金兽”。你给它一句简单指令,后台可能会向大模型发起几十次 API 请求,这种高频次 Token 消耗,是普通 AI 聊天的十几倍。我之前设置了每日新闻收集的定时任务,刚跑没多久就发现 Token 消耗快到离谱,不得不紧急停掉……从那之后,我开始研究市面上各家的 Coding Plan,发现真是各有各的玩法,也各有各的坑。
2026-04-09 18:12:14
660
原创 日耗Token过亿、催生6000美元上门服务:OpenClaw背后的算力“平权战争”
从闲鱼上明码标价的“上门安装”服务,到BAT争相布局的算力配套生态,这只让大模型从“对话”走向“执行”的红色龙虾,不仅重塑了AI应用范式,也折射出高端GPU受限背景下,国内开发者对算力效率与消费级显卡生产力的强烈诉求。但极具反讽的是,这款标榜普惠的开源框架,其技术部署门槛迅速筑起新壁垒。这场由应用层倒逼基础设施层的连锁反应,清晰勾勒出算力平权的实现路径:在高端硬件资源受限的环境下,通过技术创新优化效率、降低成本,让算力成为人人可及的公共资源,这是中国AI产业从“圈层狂欢”迈向“全民创新”的关键一跃。
2026-03-12 16:27:22
252
原创 刚更完就火!DeepSeek、GLM-5、MiniMax2.5 齐发力,算力准备好了吗?
返赠统计时间:2026 年 2 月 10 日 00:00 — 2 月 28 日 23:59(此期间消耗可参与返赠)针对春节期间大家的模型体验与开发需求,九章智算云推出春节专属 50 度算力包,希望帮大家更轻松地使用各类大模型。返赠发放:符合条件的返赠算力,将于 2026 年 3 月 31 日 24:00 前统一发放至账户。抵扣规则:账户内如有其他带有效期算力包,将优先消耗该部分,消耗部分仍可正常参与等额返赠。50 度算力可覆盖大模型推理、微调、训练等常见使用场景,具体可参考平台内的实测说明。
2026-02-14 22:42:18
377
原创 你的 24 小时 AI 搭子来了!OpenClaw 正式登陆九章智算云
早晨唤醒:早上醒来,助理准时推送天气提醒(记得穿外套)、重要纪念日倒计时(妈妈生日还有3天,同步推荐她喜欢的礼物)、昨晚提及的需求(想看的电影资源已找好),还有按优先级排序的今日3件事,九章算力保障秒级推送,不用等、不卡顿;团队会议的决议是什么?和普通工具不同,它从不会被动等待你的指令,而是主动预判你的需求——记得你的偏好、你的琐事、你的心愿,不评判、不打扰,越用越懂你;
2026-02-13 20:53:18
196
原创 九章智算云平台上线OpenClaw 开启AI智能体云端部署新模式
OpenClaw凭借长期记忆、主动服务、全场景适配等特点,可精准满足企业管理者、个人用户、开发者与非技术用户等不同群体的需求,既能为管理者提供信息过滤、会议辅助、决策摘要、自动复盘等服务,也能为个人用户提供日程管理、生活提醒、情感陪伴等个性化支持,同时支持定制化开发与自然语言极简操作,让各类用户都能轻松使用AI助理能力。操作流程上,方案将模型接入、消息平台配置、技能加载等步骤整合为可视化流程,支持一键启用飞书、钉钉、企业微信、QQ等主流消息通道,帮助用户快速搭建可用的AI助理服务。
2026-02-13 20:50:57
237
原创 九章云极DART-GUI-7B登顶OSWorld 7B榜首,强化学习云赋能轻量化模型突破
OSWorld 是目前 AI 领域衡量 “智能体(Agent)跨软件操作电脑” 能力最顶尖的基准测试,它模拟真实的操作系统环境,要求 AI 像人类一样通过视觉观察屏幕,并精准操控浏览器、Excel、VS Code 等各类桌面应用来完成跨平台的复杂任务,被OpenAI、Anthropic、字节跳动Seed、月之暗面、智谱等顶尖AI团队广泛采用,更是检验AI能否从“只会聊天”进化为“高效数字员工”的硬核试金石。这一机制使得 7B 模型,在最大30步内,即可稳定的实现OSWorld中的任务要求。
2026-01-28 14:52:26
582
原创 实操 | 用 PP-OCRv5 搭建企业专属OCR服务(附完整部署流程
通用 OCR 产线用于解决文字识别任务,提取图片中的文字信息以文本形式输出,本产线支持PP-OCRv3、PP-OCRv4、PP-OCRv5模型的使用,其中默认模型为 PaddleOCR3.0 发布的 PP-OCRv5_server 模型,其在多个场景中较 PP-OCRv4_server 提升 13 个百分点。该模型是专为文档解析量身定制的 SOTA 和资源高效模型 ,支持 109 种语言,擅长识别复杂元素(例如文本、表格、公式和图表),同时保持最小的资源消耗。2、注册登录后,点击产品 -> 云容器实例。
2025-12-26 10:53:28
1055
原创 一张图说清:H100、H200、B200-到底该怎么选?
B200 单卡配备 192GB HBM3e 显存和高达 8TB/s 的带宽,可轻松承载百亿参数模型的高吞吐推理,并在采用 FP8 混合精度、梯度检查点等优化策略后,支持中小规模百亿模型(如 10B–30B)的单机全参训练,或 70B+ 模型的高效微调。B200 很强,但它不只是“H100 的升级版”,而是一套为下一代 AI 计算范式打造的新基建——无论是千卡集群训练万亿 MoE,还是单机验证超长上下文架构,它都能提供前所未有的效率。新版的手机虽然总是令人特别心驰神往,也不意味着你马上就要把旧的换掉。
2025-12-24 10:11:41
1197
原创 为什么你开了多卡,训练反而更慢?
模型规模和batch 设置保持不变测试结果却非常反直觉:8 卡配置下,单 step 时间明显变长整体吞吐提升不足30%GPU 利用率看起来正常,但训练总时长反而拉长复盘后发现,问题并不在算力规模本身,而在于:参数同步频率显著增加跨机通信延迟被放大新增算力大量消耗在“等待同步”上卡是加了,但有效算力并没有等比例增加。也正因为如此,多机多卡训练的核心挑战,从“有没有算力”,变成了算力是如何被拆分、协同和调度的。这些能力,往往决定了:多出来的GPU,究竟是在加速训练,还是在放大成本。
2025-12-18 17:24:48
809
原创 麦肯锡11月最新报告《Agentic AI安全部署手册》:Agentic AI安全不是“贴膏药”,而是“打地基”(附报告原文
Agentic AI不是“更聪明的工具”,而是新型生产力关系的重构 ——人类从“操作者”变为“监督者”,Agent从“执行者”变为“责任主体”。“In an agentic world, trust is not a feature. It must be the foundation.”(在智能体的世界里,信任不是一项功能,而必须是基石。所以,别再问“我们能不能上Agent?要问:“我们的安全水位,配不配得上Agent的智能水位?毕竟——AI可以试错,企业不能重来;Agent可以重启,声誉无法重载。
2025-12-08 15:32:35
1071
原创 保姆级教程!PaddleOCR-VL 私有化部署全流程,109 种语言 SOTA 模型直接用
PaddleOCR-VL是一款专为文档解析而设计的、资源高效的 SOTA 模型。其核心组件是 PaddleOCR-VL-0.9B,这是一款紧凑而强大的视觉语言模型 (VLM),它将 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型相结合,从而实现精准的元素识别。: PaddleOCR-VL 支持 109 种语言,涵盖全球主要语言,包括但不限于中文、英文、日文、拉丁文和韩文,以及采用不同文字和结构的语言,例如俄语(西里尔字母)、阿拉伯语、印地语(梵文)和泰语。
2025-11-27 11:37:42
973
原创 Linux环境安装ComfyUI,部署SeedVR2(2025.11.13 - Version 2.5.10)节点实现图像视频超分(放大)
SeedVR22.5.10于2025年11月13日正式发布,适用于 ComfyUI,支持高质量视频和图像放大。(一)核心能力高质量基于扩散的放大:视频和图像增强的一步扩散模型时间一致性:通过可配置的批处理保持视频帧间的一致性多格式支持:支持视频和图像的 RGB 和 RGBA(alpha 通道)任何视频长度:适合任何视频长度(二)模型支持多种模型变体:3B 和 7B 参数模型,具有不同精度选项FP16、FP8 和 GGUF 量化。
2025-11-26 17:54:15
2061
原创 AI 听不懂你的需求?这篇 Prompt 指南,帮你打通 “沟通任督二脉”
提示工程归根结底是沟通:说出最能帮助 AI 清晰理解你意图的语言。从本指南开头介绍的核心技巧开始。持续使用,直到它们成为第二天性。只有在解决特定问题时才加入高级技巧。从核心技巧开始熟练后自然知道什么时候加入进阶技巧不要追求“最多技巧”,而是“最少但足够”提示词越是明确、结构越合理,模型越能稳定输出随着“上下文工程”兴起,提示词工程并没有变弱,相反,它是上下文工程的核心构件。AI 时代,懂 AI 的人不是最厉害的;能让 AI 更好用的人,才是真正的增幅者。
2025-11-25 15:22:32
731
原创 “不会选数字人?” 收好这份2025选型清单,照着选就行!(建议收藏)
其3D高斯泼溅技术经过特殊优化,通过StyleUnet+MLP混合建模和动态高斯点云技术,在保证高质量渲染的同时,将单个数字人模型的体积控制在100-200MB,使其能够在高端手机上实现60FPS的流畅渲染和1-2秒延迟的实时对话。例如,MimicTalk通过“动静结合”的微调策略,既优化了基于3D人脸表征(tri-plane)的静态细节(如牙齿、头发),也利用LoRA技术对模型参数进行高效微调,增强了肌肉运动等动态细节的真实感,从而在短时间内生成高质量、高表现力的个性化说话人脸。总体投入成本是否可控?
2025-11-24 14:01:10
1161
原创 谷歌 Gemini 3+Nano Banana Pro 双杀!阿里字节蚂蚁新品集体破局
在多项测试中表现优异,SWE - Bench Verified 测试准确率 77.9%,Terminal - Bench 2.0 测试准确率 58.1%,均优于谷歌 Gemini 3 Pro,目前已集成到多款开发环境,助力开发者大幅提升工作效率。该 APP 依托阿里在大模型领域的技术积累,聚焦开源优势,为用户提供智能问答等基础功能。搭载该模型的机器人可在办公室制作咖啡、组装纸箱等,能连续一整天制作意式浓缩咖啡,还大幅降低了任务失败率,将具身智能落地到办公场景,推动机器人实操应用的发展。
2025-11-21 11:30:14
1325
原创 奥特曼都追更!Gemini 3免费开测:一句话出3D模型,理科生都服的推理力(附使用指南)
从Gemini 1到3,能明显感觉到AI的变化:以前是“我问你答”,现在是“我给目标,你给结果”。它不再是炫技的工具,而是真能帮你省时间、解决麻烦的“帮手”。现在Gemini 3 Pro已经全量开放,不管是学生、职场人还是程序员,都能直接去体验。不用怕学不会,它对指令的理解特别直接,越简单的要求反而做得越好。你最想用它解决啥问题?是帮你整理考研笔记,还是做菜谱、写代码?你可以在评论区大开脑洞。实操入口:手机端直接更Gemini App,选“Thinking”模式;
2025-11-19 14:59:22
1062
原创 大模型训练微调推理GPU资源选型指南
本指南系统性地解答了AI大模型训练与微调、推理过程中,在GPU算力资源选型、采购、部署和安全方面可能遇到的核心问题。
2025-11-18 10:53:06
992
原创 实测两款热门 OCR!DeepSeek-OCR 和小红书 dots.ocr 谁更能打?
这几年OCR技术真是彻底变了样,从之前靠规则硬刚,到现在直接端到端的大模型搞定,开源社区也出了几个特别能打的:DeepSeek-OCR:当红炸子鸡。专门为中文优化,识别准、表格还原强,像合同、报表、扫描件这类正式文档,处理起来非常顺手。dots.ocr(小红书开源):专门对付那种背景花、字体飘、还带圆角的“社交体质”图片——小红书上的爆款图文,它基本都能精准识别出来。在GitHub上已经攒了5.6K Star,属实有点火。不光客户有需求,我们自己内部也在用。
2025-11-13 10:00:00
946
原创 基于MattePro大模型实现图片与视频扣像背景变透明
相比智能抠图,自定义抠像提供了更多的控制选项,用户可以通过画笔工具手动调整抠图区域,适合处理复杂或精细的抠图任务。例如,用户可以使用快速画笔工具进行精细调整。
2025-11-11 10:00:00
2381
原创 离大谱!我部署的MiniMax M2模型,竟说自己是ChatGPT?是血赚还是翻车?附部署教程。
MiniMax-M2重新定义了智能体的效率。它是一款紧凑、快速且经济高效的MoE模型(总参数2300亿,其中100亿为激活参数),专为编码和智能体任务的卓越性能而打造,同时保持强大的通用智能。仅需100亿个激活参数,MiniMax-M2即可提供当今领先模型所应具备的复杂、端到端的工具使用性能,同时采用精简的外形设计,使部署和扩展比以往任何时候都更加轻松。第三方评测机构Artificial Analysis的测试中,Minimax M2以61分获得了开源模型第一,紧随Claude 4.5 Sonnet。
2025-11-06 10:25:30
1377
原创 存储不够用?镜像不会保存?那是你还没学会这招!
用 CCI 跑模型时,你是不是也被这俩问题卡过?自带 50G 存储根本不够用,下一个大模型就直接满了,数据删也不是、留也不是;单卡调完环境想迁到多卡,结果镜像不会存,之前的配置全白费,又得从头装…别慌!今天就给大家一套「数据不丢 + 环境复用」的解决方案,从开通配置到多卡迁移,一步一步跟着走就行~● 大容量存储:数据再也不怕丢 ,再也没有容量焦虑○ 操作路径:找到「存储管理」→ 点击「开通新存储」;○ 关键选择:选对应的存储类型(按项目需求)、填需要的容量(比如模型大就多开点),点开通;
2025-11-04 15:33:26
799
原创 显存不够、算力告急、部署复杂?九章智算云带着141G显卡等3重惊喜来了
不用等活动、不用拼手速,只要注册就能领 10 度免费算力,直接体验新显卡的超强性能!注册/登录:访问九章智算云id=online领取10度算力,从产品中心进入CCI控制台,你将会收到一个弹窗,如下点击立即领取后去你的【费用中心】即可看到你领取到的10度算力。
2025-10-28 16:57:44
1024
原创 抢鲜体验!DeepSeek-OCR在线服务,即刻感受文字识别的魅力
是由DeepSeek 团队推出的先进视觉语言模型,专注于通过光学压缩技术高效处理长文本内容。模型采用编码器与解码器的组合设计,在保证高分辨率输入的同时,显著降低了激活内存占用和视觉标记数量。在10 倍压缩比下,OCR 精度可达97%;即便在20 倍压缩比下,仍能保持约60% 的识别准确率。DeepSeek-OCR 支持多种分辨率模式,适用于多语言文档处理,同时能够解析图表、化学公式等复杂内容,为大规模文档识别与处理提供高效可靠的解决方案。
2025-10-28 10:02:43
1049
原创 【九章智算云重磅上新】10 倍压缩率 + 97% 精度!DeepSeek-OCR 让文档处理进入「秒级时代」
DeepSeek-OCR 创新性地通过光学二维映射来压缩长上下文,实现高效「看图识文」,替代传统大模型“逐字阅读”的机制,在 OmniDocBench 权威评测中,仅用100 个视觉 Token即超越 GOT-OCR2.0(256 Token),并在 800 Token 内性能碾压 MinerU2.0(近 7000 Token)。这种「以图载文」的技术路径,使文档处理效率提升 10 倍,单张 A100-40G 显卡每日可处理超 20 万页文档,真正实现「算力不变,产能翻倍」。
2025-10-22 18:25:09
1239
原创 DeepSeek-V2-Exp:一键部署,私有化轻松搞定,告别繁琐下载!
DeepSeek-V2-Exp:一键部署,私有化轻松搞定,告别繁琐下载!
2025-10-20 15:36:37
1365
原创 “AI 曼哈顿计划”:科技竞赛还是人类挑战?
现实中的“对齐”很多时候只是“公关洗白”或“安全洗白”,比如让聊天机器人表现得更“友善”,但这远不足以解决AGI真正带来的深层风险。若参照阿波罗计划的投入标准(年均2440亿美元,占GDP的0.8%),连续三年可采购约2700万块H100等效GPU,支持为期100天的AGI模型训练,总算力约为3e29 FLOP。最终,要想在AGI领域赢得真正的“胜利”,需要超越眼前的技术竞赛,建立基于“伦理人本主义”的社会共识。许多AI研究者指出,目前的AI进展主要依赖“规模堆叠”,缺乏对“智能本质”的真正理解。
2025-07-09 14:22:21
1575
原创 手把手实战:Flux Kontext Dev 开源,最强一致性图像编辑模型!
FLUX.1 Kontext 是 Black Forest Labs 推出的突破性多模态图像编辑模型,支持文本和图像同时输入,能够智能理解图像上下文并执行精确编辑。其开发版是一个拥有 120 亿参数的开源扩散变压器模型,具有出色的上下文理解能力和角色一致性保持,即使经过多次迭代编辑,也能确保人物特征、构图布局等关键元素保持稳定。
2025-07-03 17:01:02
2438
原创 手把手实战:零基础教程!照片一键生成科目三
Magic Animate 是一个基于扩散模型的人像动画框架,由新加坡国立大学的 Show Lab 和字节跳动团队开发。它可以从单张图片和一个动作视频中生成动画视频。这个工具在保持时间一致性、忠实保留参考图像以及显著提高动画真实感方面表现出色。
2025-06-27 14:26:57
694
原创 人工智能三Deep:三大“Deep”力量如何共塑AI黄金时代
从长远来看,这将被证明是一个高明的选择,它不仅立刻提高了深度学习的研究关注度,而且未来以此为基础的AI研究更是促进了整个AI技术的突破和行业的广泛应用。DeepMind 的技术路径一直偏爱强化学习,就像一位痴迷于“闯关学习法”的学霸,它最爱的练功房是各种游戏世界—从围棋棋盘到电子游戏,在这里不断试错、总结,练就了一套强大的“强化学习”本领。在谷歌这一代号“谷歌猫”的项目中,计算机系统通过自主学习1000万张未标注的YouTube图片,首次在没有人工干预的情况下识别出了“猫脸”这一概念。
2025-06-26 13:59:34
1975
原创 全在这里了,小白也可以一文读懂的“世界模型”
我们先来回顾一下近期相关事件:6 月 18 日,Midjourney 发布首个 AI 视频生成模型 V1,标志其从静态图像创作向动态多媒体内容生产转型。V1 支持上传或用其他模型生成图像来生成视频片段,但有无法生成音频、时长限制等不足。Midjourney 透露长期目标是将多种技术融合为"世界模型",使用户能在动态生成的虚拟环境中自由探索。6 月 20 日,在华为开发者大会 2025 上,发布基于盘古多模态大模型的世界模型。该模型能为智能驾驶、具身智能机器人训练构建数字物理空间。
2025-06-25 16:57:01
1704
原创 当AI“阅读”蛋白质天书:GPU+BioNeMo驱动医药革命
它通过提供针对特定领域优化的模型和工具,大幅加速了构建和调整生物分子AI最耗时且成本最高的阶段,并能轻松集成至任何基于GPU的计算环境中。就像ChatGPT理解人类语言,ESM-2、ESM-3等模型通过“阅读”数十亿蛋白质序列,学会了预测蛋白质结构、设计新药物——而这一切的关键,在于GPU算力与算法的双重突破。2024年诺贝尔化学奖授予蛋白质计算设计领域,背后正是一场静默的革命:全球实验室正在用GPU超算训练蛋白质大语言模型(pLMs),让AI从海量序列中破译生命密码。
2025-06-20 13:48:34
561
原创 小型企业“数据不怕哇”公司困境中的算力突围
在这场变革中,头部企业凭借雄厚的数据储备、强大的算力基建和顶尖的算法团队快速构建壁垒,而广大中小企业却面临三座横亘眼前的“AI大山”——数据匮乏、算力不足、算法门槛高。一台H200服务器买的话要200多万,租的话,一个月也得8万多,我们还得引进大模型技术人员,我们账上的钱够撑几天?她想起自己刚进公司时,被嘲笑"只会做Excel表格",如今公司也站在了同样的悬崖边,心里忐忑不安,公司不会要裁员吧?窗外,北京的夜空繁星点点,这家曾经濒临绝境的小公司,如今手握自己的AI未来。(深吸一口气):"这真是雪中送炭哪。
2025-06-19 13:57:16
889
原创 大模型蒸馏:从DeepSeek到李飞飞的50美元革命
2025年2月初,人工智能领域迎来两起标志性事件:中国公司DeepSeek发布的R1模型以“高性能+低成本”颠覆行业叙事,而“AI教母”李飞飞团队仅用和训练出媲美顶尖模型的s1-32B推理模型。这两项突破的核心技术均有一个关键词——。这一技术如何打破传统训练范式?其背后隐藏着怎样的科学逻辑与工程智慧?本文将深入解析。
2025-06-17 18:07:24
987
原创 手把手实战:零基础教程!LLaMA-Factory微调Qwen2-VL
具体实现过程看以下实战步骤。LLaMA-Factory微调Qwen2-VL实战步骤1、部署环境1)点击LLaMA-Factory镜像,准备开始部署2)点击配置&部署按钮3)填写自定义集群信息—>点击部署按钮4)部署完成之后,选择Notes.txt 显示登录地址5)设置微调参数最后参数会生成相关命令:以下是本次训练的核心参数与说明:为了让模型更贴近文旅领域的真实应用场景,本次微调采用了名为的图文对话数据集。该数据集由阿里达摩院团队开源发布。
2025-06-16 13:40:14
1942
1
原创 一文彻底读懂:英伟达GPU分类、架构演进和参数解析
每个CUDA核心只处理简单的数学运算(如浮点加减乘除),但通过集成数千个这样的核心,GPU能同时处理海量数据,速度远超CPU。显存位宽是GPU和显存之间的“数据通道宽度”,单位是bit(位),比如128bit、256bit、384bit等。位宽越大,GPU能同时读取的数据越多。其不断迭代的芯片架构与持续攀升的算力天花板,恰如一场自我突破的技术突围 —— 每一次架构升级,都是对行业算力边界的重新定义。在我们谈论算力的时候,常常会提到的半精度 (FP16)、单精度(FP32)、双精度(FP64)又是什么?
2025-06-13 10:34:45
3367
原创 不用公式!用生活例子讲透Transformer,大模型为何强大
比如,在句子“The animal didn't cross the street because it was too tired.”中,当他们看到“it”时,就会特别关注“animal”,因为“it”指的就是“animal”。当“自注意力”员工处理完一个词的信息后,他们就会对每个词的信息进行独立的、统一的加工,就像给每个词的信息做个“标准化处理”,让它们更容易被下一步使用。“透明度”更高(能看到它在看什么): 我们可以通过一些方法,看到模型在处理某个词时,它的“注意力”集中在输入句子的哪些词上。
2025-06-10 12:34:39
485
AutoML技术白皮书-《引入AutoML破局企业智能》
2022-10-27
首个ModelOps技术白皮书-《ModelOps技术应用及趋势白皮书》
2022-10-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅