- 博客(487)
- 收藏
- 关注
原创 月之暗面开源混合线性注意力模型:Kimi-Linear-48B-A3B-Instruct
Moonshot AI推出的Kimi Linear模型创新性地采用混合线性注意力架构,通过Kimi Delta Attention(KDA)机制实现高效长文本处理。该模型在1.4T token上训练,支持1M超长上下文,KV缓存降低75%,解码速度提升最高6倍。采用3:1的KDA与MLA混合设计,在MMLU-Pro和RULER等基准测试中保持卓越性能,1M token场景下TPOT比MLA快6.3倍。已开源基础版和指令微调版,兼容主流推理框架,为长文本处理提供了高效解决方案。
2025-11-03 22:15:00
738
原创 百度低参数OCR多模态模型速览:PaddleOCR-VL-0.9B
PaddleOCR-VL提出了一种轻量级多语言文档解析方案,通过0.9B参数模型在109种语言和复杂版式文档上实现SOTA性能。该模型采用动态分辨率视觉编码器、轻量版面分析头和0.3B语言模型架构,支持表格、公式、图表等12类元素识别。通过2.5亿图文预训练和课程式微调,在OmniDocBench基准上取得92.6% F1值,超越72B级大模型4.1个百分点,同时保持端侧高效部署能力(RTX3060达8ms/页)。方案已开源并支持财务、教育等场景应用,未来将探索稀疏MoE和链式思考等优化方向。
2025-10-22 22:00:00
1398
原创 百度PaddleOCR-VL模型论文速读:一个轻量级、高效、准确的多语言文档解析模型
PaddleOCR-VL提出了一种轻量级多语言文档解析模型,通过两阶段架构(布局分析和元素识别)结合0.9B参数的视觉语言模型,在保持高效推理的同时提升复杂文档解析能力。研究采用系统化数据构建流程,整合3000万样本训练集,并引入自动标注和难例挖掘技术。实验表明,该模型在多语言文本、表格、公式和图表识别任务中均达到SOTA性能,支持109种语言且推理速度显著优于同类模型,具备良好的部署实用性。该技术为文档信息提取提供了高效解决方案。
2025-10-22 00:07:52
909
原创 DeepSeek-OCR 模型速览:从“以 LLM 为中心”的视角重新思考视觉编码器在文档 OCR 中的作用
DeepSeek-OCR是由DeepSeek-AI团队开发的开源OCR模型,采用"LLM为中心"的视角,通过上下文光学压缩技术将高分辨率图像压缩为64-400个视觉token,显著降低计算资源需求。该模型支持多种分辨率模式,在保持高准确率的同时实现20倍以上的信息压缩率,显存占用低于同类模型10倍以上。在Fox benchmark测试中,大模型版本达到97.3%的准确率,小模型版本仅用64个token也能保持79.3%准确率。模型支持vLLM和Transformers两种推理方式,提供多
2025-10-21 22:07:59
793
原创 deepseek-ocr 多模态OCR模型论文速读:将文档文本转换为图像,用更少的视觉token表示丰富的信息
本文提出了一种基于视觉-文本压缩的新型大语言模型DeepSeek-OCR,旨在解决长文本处理的计算挑战。通过将文档转换为图像实现高效信息压缩,模型采用DeepEncoder编码器和MoE解码器架构,支持多分辨率输入和多种压缩比需求。实验表明,在10倍压缩比下模型保持97%的解码精度,在OCR任务中表现出色。该研究为长文本处理提供了新思路,通过模拟人类记忆遗忘机制,有望实现理论上无限上下文架构。
2025-10-21 22:01:06
714
原创 基于qwen3微调的混合推理模型:T-pro-it-2.0
T-pro-it-2.0是基于Qwen 3模型构建的智能助手,通过400亿指令数据和50万条高质量SFT数据训练,特别强化了推理能力(占任务20-30%)。模型支持32K长文本处理,可通过SGLang、HuggingFace和VLLM三种方式部署,推荐根据任务类型调整温度参数(0.3-0.8)。关键技术包括持续预训练、指令微调和偏好调整,在基准测试中表现优异,特别适合需要进行复杂推理的任务场景。使用时需注意伦理规范,模型原生支持俄语等多样化指令处理。
2025-07-26 22:30:00
459
原创 英伟达开源英语语音识别模型速览:canary-qwen-2.5b
NVIDIA推出Canary-Qwen-2.5B语音识别模型,这款25亿参数的英语ASR模型在多个基准测试中表现优异。该模型支持两种模式:纯语音转文本的ASR模式和可处理转录文本的LLM模式。基于FastConformer编码器和Transformer解码器架构,模型采用CC-BY-4.0许可,已在HuggingFace平台发布。训练使用了4000万语音-文本对,在32块A100 GPU上完成。虽然主要针对英语场景,但模型在准确性、推理速度(418 RTFx)和商业适用性方面具有优势,同时也存在输入长度限制
2025-07-25 22:15:00
1545
原创 字节开源多语言翻译模型速览:Seed-X-PPO-7B
Seed-X-PPO-7B是一款开源的多语言翻译模型,属于Seed-X系列,具备70亿参数并支持28种语言的互译。该模型通过强化学习优化翻译性能,在FLORES-200等基准测试中超越同类开源模型,性能接近GPT-4等商业大模型。其轻量化设计支持高效部署,覆盖科技、金融、法律等多领域专业翻译需求。模型采用OpenMDW许可证,提供指令调优、强化学习和奖励评估三种版本,支持vLLM框架快速调用。技术评估显示其翻译质量优异,特别在中文/英文互译任务中表现突出。
2025-07-24 22:15:00
1008
原创 专门用于理解、生成和分析 Solidity 智能合约的微调大型语言模型:Solidity-LLM
Solidity-Code-LLM是由ChainGPT开发的专门用于Solidity智能合约开发的微调大模型。基于codegen-2B-multi模型开发,采用20亿参数规模,在编译成功率(83%)、气体效率(72%)和代码简洁性(70%)方面表现优异。模型训练分为预训练和指令微调两个阶段,总计使用650K指令进行微调。评估显示其生成的合约83%可直接编译,72%具有良好气体效率,但安全性得分58%仍有改进空间。该模型适合作为开发辅助工具,但需注意其可能产生幻觉代码的局限性。未来将扩展语言支持并提升模型规模
2025-07-23 22:15:00
1357
1
原创 MIstral开源语音理解多模态生成模型速览:Voxtral-Small-24B-2507
Voxtral Small 1.0(24B-2507)是Mistral AI推出的增强版大语言模型,首次在24B级稠密模型中实现原生音频理解能力。该模型支持8种语言的语音转录、翻译、问答等功能,纯转录模式下词错误率低至4%,同时保持32k token的长文本处理能力。在文本任务中表现与原版Mistral Small 3.1持平,支持多轮对话和函数调用(实验性)。部署需要约55GB显存,推荐使用vLLM框架。当前版本暂不支持system prompt和量化权重,未来计划扩展更多语言支持并优化函数调用功能。
2025-07-22 22:15:00
982
原创 PusaV1模型论文速读:面向帧感知的视频扩散模型
FVDM提出了一种帧感知的视频扩散模型,通过引入向量时间步变量(VTV)实现帧级独立演化,解决了传统视频扩散模型标量时间步的局限性。该方法在不重新训练的情况下支持多种零样本任务,包括标准视频生成、图像到视频、插帧和长视频扩展等。实验表明,FVDM在Fréchet视频距离指标上优于现有模型,并在零样本应用中保持良好时序一致性。核心创新在于将单时间步扩展为帧级向量时间步,结合概率采样策略平衡灵活性与计算效率。该框架为视频生成任务提供了更细粒度的时间控制能力。
2025-07-21 22:15:00
1028
原创 向量化时间步适配(VTA)的文生视频模型(微调自Wan2.1-T2V-14B):PusaV1
Pusa 1.0提出创新的向量化时间步适配(VTA)范式,通过轻量微调Wan2.1-T2V-14B模型,在保留原T2V能力的同时解锁I2V、视频补全等多样任务。该方案仅需8×80GB GPU训练500美元,以4K样本数据在VBench-I2V评测中取得87.32%的最高分。关键技术包括帧级噪声控制、LoRA微调和开源实现,计算效率达传统方案的200倍,数据需求仅1/2500。Pusa 1.0展示了如何在低成本下实现视频生成模型的通用时序控制能力。
2025-07-20 22:15:00
592
原创 支持音频理解的多模态多语言开源模型:Voxtral-Mini-3B-2507
Voxtral Mini 1.0(3B)是基于Ministral 3B增强的多模态语言模型,兼具文本处理与音频理解能力。支持30分钟长音频输入,具备语音转写、翻译、问答和摘要功能,内置多语言自动识别。特性包括纯转写模式、32k token长上下文、语音调用函数等,在FLEURS等基准测试中表现优异。推荐使用vLLM框架部署,支持离线验证和服务端启动。当前支持多轮对话和批量音频处理,暂不支持系统提示词。该模型在保持文本能力的同时,显著提升了音频处理性能。
2025-07-19 22:15:00
779
原创 开源网页导航智能体的后训练范式解析模型速览:WebSailor
WebSailor提出了一套创新的后训练范式,旨在提升开源大模型在复杂网页导航任务中的表现。研究通过三级任务分级和SailorFog-QA数据合成管线(包含知识图谱构建、信息遮蔽和问题生成)构建高难度训练数据。采用专家轨迹生成、拒绝采样微调(RFT)和创新的DUPO强化学习算法,在保持探索多样性的同时优化策略。实验结果显示,仅7B参数的WebSailor模型在BrowseComp等基准上超越了更大规模的开源系统,接近闭源系统性能,验证了该训练范式的高效性。
2025-07-18 22:30:00
485
原创 面向动漫风格的图像开源生成模型速览:nai-anime-v2
NovelAI发布动漫风格图像生成模型NAID V2,基于Stable Diffusion框架进行多项升级。主要改进包括:训练分辨率提升至1024×1024;引入UC Strength参数独立调节负向提示词权重;重构提示词体系,新增质量、美学和年代标签。对比V1版本,V2在图像细节、色彩表现和构图合理性方面均有提升。团队已启动V3研发,并举办万圣节主题生成比赛。该模型为动漫风格图像生成提供了更高质量和可控性的解决方案。
2025-07-17 22:30:00
2052
原创 开源的高性能小型重排模型速览:zerank-1-small
本文提出并开源了一个1.7B参数的小型重排模型zerank-1-small,采用Cross-Encoder架构,通过知识蒸馏和宽度剪枝从4B参数旗舰模型压缩而来,在保持性能(NDCG@10仅降1.2%)的同时降低52%推理延迟。实验表明,该模型在六大垂直领域超越闭源商业模型,使传统检索系统NDCG@10提升11-12%,推理吞吐达680 QPS。模型已以Apache 2.0协议开源,支持本地和云端调用,为信息检索社区提供了高效可复现的解决方案。
2025-07-17 22:30:00
771
原创 EXAONE-4.0-32B模型论文速读:统一的大型语言模型融合非推理和推理模式
LG AI Research推出EXAONE 4.0模型,整合了易用性与深度推理能力。该模型提供32B和1.2B两种规模,采用混合注意力架构和渐进式上下文长度扩展训练,支持128K长文本处理。后训练包含监督微调、推理强化学习和偏好学习三个阶段,在数学/代码、工具使用、多语处理等任务中表现优异。模型以非商用许可发布,适用于研究教育用途。
2025-07-16 22:30:00
818
原创 字节开源Tar 统一多模态大模型速览:Tar-7B/1.5B
本文提出Tar统一多模态大模型,将视觉理解与生成整合到单一自回归框架中。核心创新包括:1)TA-Tok文本对齐视觉分词器,将图像编码为与LLM词表对齐的离散token;2)可扩展的视觉解码器(自回归/扩散模型);3)统一预训练任务增强跨模态融合。实验表明,Tar在1.5B~7B参数规模下实现高效多模态处理,理解与生成任务均取得优异性能,同时降低30%训练时间和20%显存占用。该框架为多模态LLM提供可插拔、易扩展的新范式。
2025-07-16 10:30:00
1748
原创 基于混合注意力机制的高阶推理大模型速览:EXAONE-4.0-32B
LG AI Research推出的EXAONE 4.0系列模型融合了易用性与高阶推理能力,提供32B和1.2B两种规模版本。创新性地采用混合注意力机制和QK-Reorder-Norm架构,支持双模式推理(快速响应和链式思考)和智能体工具调用功能,并新增西班牙语支持。评估显示其32B推理模式在多项基准测试中领先,1.2B模型在同等规模中表现优异。该系列适用于从云端到端侧的多样化部署需求,但需注意内容生成风险和使用限制。
2025-07-16 10:30:00
683
原创 Kimi-K2-Instruct模型技术报告速读:开放智能代理
Kimi K2是一款开放代理智能大模型,采用1万亿参数的稀疏MoE架构,激活参数320亿。该模型不仅具备强大的知识、数学与编程能力,还能主动调用工具执行多步骤任务。研究团队开源了基座模型和指令优化版本,并提供API接口。在多项基准测试中,Kimi K2在不启用"长思考"模式下表现优异,如LiveCodeBench代码任务达53.7%,数学GPQA-Diamond达75.1%。模型通过MuonClip优化器解决训练稳定性问题,并采用强化学习提升代理能力。当前支持Web/App、API和本地
2025-07-15 22:30:00
2016
原创 月之暗面开源升级版混合专家(无思考)模型K2速览:Kimi-K2-Instruct
Kimi K2是由月之暗面推出的万亿参数混合专家大模型,包含32B激活参数,采用创新Muon优化器实现训练零不稳定。该模型主打代理智能,在工具调用、推理和问题解决方面表现突出。提供基座模型K2-Base和指令微调模型K2-Instruct两个版本,后者在多项基准测试中取得SOTA成绩,尤其在代码、工具使用和数学推理方面优势明显。模型基于15.5T高质量多语言数据预训练,支持128K长上下文,并兼容主流推理引擎。目前已开放API和部署方案,强调代理交互能力。
2025-07-15 10:30:00
2160
原创 medsiglip-448模型技术报告速读
Google推出的MedSigLIP是专为医疗AI设计的视觉-语言模型,能映射医学图像与文本到统一嵌入空间。该模型基于8亿参数架构(视觉/文本编码器各4亿),训练数据涵盖X光、CT、MRI等多种医学影像及对应报告。适用于图像分类、零样本诊断和语义检索等任务,但不支持文本生成。开发者可进行微调优化,官方建议病理分类优先使用Path Foundation模型。模型需遵守医疗AI使用条款,并提供了应用示例。
2025-07-14 22:30:00
990
原创 医疗场景下医学视觉-语言预训练模型速览:medsiglip-448
Google推出的MedSigLIP是基于SigLIP-400M的医学视觉-语言预训练模型,采用双塔架构(4亿参数视觉/文本编码器)。该模型通过联合对比学习将医学图像与文本映射到同一语义空间,适用于分类、检索等任务。训练数据融合公开数据集(MIMIC-CXR等)和私有医疗数据,经严格去标识化处理。在23项医疗任务中零样本表现优异(如胸部X光AUC 0.844),但需注意合规要求,禁止直接临床使用。模型支持Hugging Face快速调用,强调数据高效理解而非生成能力。
2025-07-14 15:03:33
1248
原创 Skywork-R1V3-38B论文速读:一种先进的开源视觉 - 语言强化学习模型(VLM、RL)
Skywork-R1V3是一种先进的开源视觉-语言模型,通过强化学习框架将文本模型的推理能力迁移到视觉任务中。该模型采用独特的三阶段训练方法:冷启动微调、强化学习和连接器唯一微调。关键创新包括精心设计的奖励函数、GRPO算法优化以及连接器模块的针对性训练。在多个基准测试中,Skywork-R1V3表现出色,特别是在数学和逻辑推理任务上,达到与闭源模型相当的性能。研究还揭示了强化学习对提升多模态推理能力的关键作用,以及模型在推理过程中的行为特点。这一成果为开源多模态AI系统的发展提供了重要参考。
2025-07-14 10:30:00
705
原创 升级的开源多模态推理模型速览:Skywork-R1V3-38B
Skywork-R1V3-38B是一款开源多模态视觉语言模型,基于InternVL-38B构建,通过强化学习后训练显著提升了推理能力。其核心技术包括精细的RL微调策略、关键连接器模块优化,以及创新的"推理标记熵"指标。该模型在MMMU(76.0)、MathVista(77.1)等多个多模态推理基准测试中达到开源SOTA水平。研究者还探讨了课程学习等RL策略,并提供了详细的推理代码示例,支持多图像输入和长文本生成(最大32k tokens)。该工作为多模态推理领域提供了新的技术思路和实用工
2025-07-13 22:30:00
553
原创 适用于编程任务和代理任务的开源大模型速览:reka-flash-3.1
Reka Flash 3.1是专精编程任务的大语言模型升级版本,通过合成数据集监督微调和强化学习优化,在LiveCodeBench等编程基准上性能提升10%。该模型支持Llama格式部署,提供Hugging Face/vLLM集成方案,使用特殊分隔符的对话格式,主要面向英语用户。性能测试显示其编程能力接近人类水平,量化版本也保持优异表现,适合本地部署场景。
2025-07-13 10:30:00
437
原创 为FLUX.1 Kontext 模型设计的20 多种风格化LoRA适配模型速览:Kontext-Style-Loras
本文介绍了Owen777团队开发的Kontext-Style-Loras项目,包含20多种为FLUX.1 Kontext模型设计的风格化LoRA适配器。这些适配器基于GPT-4o生成的高质量数据训练,能实现多种艺术风格转换。项目提供了在线演示和代码示例,用户可通过Hugging Face Hub下载权重,使用FluxKontextPipeline处理图像。该研究由***科技大学(广州)的Tian YE和Song FEI完成,旨在简化风格化图像生成流程。
2025-07-13 10:30:00
823
原创 多语言的开源边缘高效混合模型速览:LFM2-1.2B
LFM2是由Liquid AI开发的新一代边缘AI混合模型,提供3.5亿至12亿参数版本。该模型采用创新架构,包含卷积和注意力层,支持32K上下文长度和多语言处理。相比同类模型,LFM2在训练速度、推理性能和基准测试表现上均有显著提升,特别适用于边缘设备部署。模型采用ChatML格式对话模板,支持工具调用功能,并可通过微调优化特定任务表现。评估显示LFM2-1.2B在多项测试中优于Llama-3和Gemma等同规模模型。模型提供开源许可,支持Python、Hugging Face等多种运行方式,并附带微调指
2025-07-12 22:30:00
1982
原创 轻量级的开源数学推理模型速览:Phi-4-mini-flash-reasoning
Phi-4-mini-flash-reasoning是一款轻量级开源模型,专注于数学推理任务。该38亿参数模型采用混合SambaY架构,支持64K长上下文,在AIME、Math500等数学基准测试中表现优异。其特色包括高效计算(吞吐量提升10倍)、适合受限环境部署,以及通过合成数据训练获得的深度分析能力。模型提供MIT许可证,但需注意其知识存储有限可能产生事实错误,建议结合RAG技术使用。开发者需评估多语言性能、安全性等风险,遵循AI伦理准则。该模型特别适用于需要结构化逻辑和准确解决方案的数学推理场景。
2025-07-12 10:30:00
680
原创 Phi-4-mini-flash-reasoning模型论文速读:用于长生成高效推理的解码器 - 混合 - 解码器架构
本文提出SambaY架构,通过Gated Memory Unit(GMU)机制在SSM层间共享记忆状态,显著提升长文本生成效率。实验表明,该模型在32K上下文长度下达到78.13%检索准确率,比基线模型提升显著,同时保持线性预填充时间复杂度。3.8B参数的Phi4-mini-Flash版本在MMLU等任务中性能提升4.5%以上,解码吞吐量最高达基线10倍。GMU机制有效平衡了效率与性能,为长文本处理提供了新思路。
2025-07-12 10:30:00
957
原创 首次发布的中间思维能力AI推理模型速览:Dhanishtha-2.0
Dhanishtha-2.0是由HelpingAI团队开发的全球首款具备中间思维能力的AI模型。该模型基于Qwen3-14B架构,支持39种语言,具有自我修正和多阶段推理能力,可展示详细思考过程。核心技术包括中间思维模块、结构化情感推理和多语言一致性处理。适用于复杂问题解决、教育辅助和研究支持等场景,但存在回答冗长、生成时间较长等限制。模型通过16天训练,在MMLU、HumanEval等基准测试中表现优异,展现了AI推理能力的重大突破。
2025-07-11 22:30:00
1536
原创 开源的代码更新语言模型(微调自 Qwen3-1.7B)速览:Osmosis-Apply-1.7B
Osmosis-Apply-1.7B是一款专为代码合并优化的1.7B参数语言模型,基于Qwen3-1.7B微调而成。该模型能精准执行类似AI代码编辑器的"apply"功能,将编辑片段智能合并到原始代码中。通过commitpackft数据集训练,它学会解析统一差异并精确定位修改位置。在10,000样本测试中,其0.98046的奖励分数优于Claude 4等主流模型。模型采用自然语言编辑格式,并配备严格奖励机制评估输出准确性。训练使用verl框架,部署时推荐SGLang后端。特别适合需要高精
2025-07-11 10:30:00
668
原创 多语言、长文本、强推理开源3B小模型速览:SmolLM3-3B
SmolLM3是一个3B参数的多语言开放模型,支持6种语言,具备高级推理和长文本处理能力。采用仅解码器Transformer架构,在11.2T标记上预训练,使用GQA和NoPE技术。使用指南包括安装transformers库、设置采样参数、启用扩展思考模式等。评估显示其在数学、编程、推理等任务上表现优异,尤其在扩展思考模式下性能更佳。训练基于384个H100 GPU,使用nanotron等框架。尽管功能强大,但存在生成内容可能不准确或带有偏见等局限性,需谨慎使用。核心技术包括独特的架构设计和训练方法。
2025-07-11 10:30:00
1389
原创 开源的全球水产养殖行业专属大型语言模型:AQUA-7B
AQUA-7B是全球首个水产养殖领域70亿参数大模型,由Kurma AI基于Mistral 7B开发。该模型通过300万真实/合成水产养殖问答(10亿tokens)训练,支持池塘、RAS等生产系统,覆盖50+物种从育种到加工的全流程管理,包括水质控制、疾病防治及可持续实践。特别提供遗传育种、孵化场运营等专业技术指导,整合AI、无人机等创新技术应用。模型采用LoRA监督精调,在16块NVIDIA H200 GPU上训练完成,但存在领域偏差和时效性局限,关键决策需专家验证。
2025-07-10 22:30:00
1894
原创 Midm-2.0-Base-Instruct模型技术报告速读:以韩国为中心的双语语言模型
Mi:dm 2.0是由韩国KT公司开发的双语大型语言模型,专为韩国AI应用优化。该模型通过高质量韩英双语数据集训练,采用深度扩展和轻量化两种配置(115亿参数的Base版和23亿参数的Mini版),并实施了严谨的数据清洗、合成数据生成等策略。模型在预训练阶段创新性地使用深度扩展和长文本处理技术,后训练阶段通过监督微调和权重合并提升性能。评估显示其表现优于同类开源模型,尤其在韩语理解和文化适配性方面突出。未来计划将增强多模态能力和推理性能,并扩展多语言支持。
2025-07-10 10:30:00
987
原创 基于qwen2.5的开源韩语理解模型速览:A.X-4.0-Light
韩国SK电信发布A.X 4.0大语言模型,专为韩语优化。该模型基于Qwen2.5构建,在韩语理解(KMMLU得分78.3)、文化认知(CLIcK得分83.5)及token效率(比GPT-4o节省33%)方面表现突出。提供72B标准版和7B轻量版,支持超长文本处理(13万token)。在Ko-MT-Bench等测试中表现优异,长文本处理能力(56.70分)显著优于GPT-4o(47.50分)。支持HuggingFace和vLLM部署,适用于企业级应用环境。
2025-07-10 10:30:00
677
原创 开源的韩语(韩国认知)推理语言模型:Midm-2.0-Base-Instruct
Mi:dm 2.0是由韩国KT公司开发的AI模型,包含两个版本:115亿参数的Base版和23亿参数的Mini版,分别针对高性能和轻量化场景。该模型专精韩语处理,深入理解韩国文化,并提供英语能力。评估显示其在韩语KMMLU和英语MMLU-pro等指标上表现优异。用户可通过Friendli.AI云端、本地部署或vLLM等多种方式使用,但需注意其多语言和专业领域的局限性。模型完全基于公开数据训练,不包含KT用户数据。
2025-07-09 22:30:00
844
1
原创 用于多文件查看编辑智能体的开源模型:DeepSWE-Preview
DeepSWE-Preview是一款基于强化学习的开源编码智能体,在Qwen3-32B模型基础上训练而成,专为复杂软件工程任务设计。该模型在SWE-Bench-Verified测试中以59.0%的准确率领先同类开源方案,仅200步强化学习训练就提升性能约20%。其采用R2E-Gym环境,支持多文件编辑和测试验证,通过改进的GRPO算法实现稳定训练。部署时可选用vLLM等高性能推理系统,最大支持64K上下文。项目采用MIT许可证,由伯克利研究团队开发,为编码智能体领域提供了可扩展的基础模型解决方案。
2025-07-09 10:30:00
671
用bert微调的情感3分类分类模型
2025-03-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅