自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(286)
  • 资源 (1)
  • 收藏
  • 关注

原创 【大模型智能体】AutoFlow:大型语言模型代理的自动化工作流生成

本文提出了AutoFlow框架,用于自动生成大型语言模型(LLM)代理的工作流,以解决复杂任务。传统人工设计工作流需要大量领域知识和精力,阻碍了代理的大规模部署。AutoFlow采用自然语言程序表示工作流,通过工作流优化程序迭代提升质量。框架提供两种生成方法:基于微调的方法针对特定任务优化LLM参数,基于上下文的方法则利用语境信息,适用于开源和闭源LLM。实验表明,AutoFlow生成的工作流优于人工设计,兼具可读性和可靠性。该研究为复杂任务解决提供了自动化范式,推动了LLM代理的广泛应用。

2026-05-03 16:16:09 445

原创 【大模型技术报告】DeepSeek-V2:一个强大、经济且高效的混合专家语言模型

DeepSeek-V2是一款创新的混合专家(MoE)语言模型,通过2360亿参数实现高效推理(仅激活210亿参数/Token)。该模型采用两大核心技术:1)多头潜在注意力(MLA)通过低秩键值压缩减少93.3%的KV缓存;2)DeepSeekMoE架构通过稀疏计算降低42.5%训练成本。在8.1T token多源语料训练后,模型经SFT和强化学习优化,支持128K上下文长度。评测显示,其聊天版本在AlpacaEval 2.0达到38.9胜率,MT-Bench获8.97分,推理吞吐量较DeepSeek 67B

2026-05-03 12:43:32 431

原创 【大模型】EvoLM论文LLM训练各个阶段效果

这个问题旨在探究单纯增加预训练阶段的token数量(即扩展计算量),是否以及如何影响模型在通用语言任务(上游)和特定下游任务(如数学推理)上的表现,特别是是否一直存在“大力出奇迹”的线性增益。此问题旨在研究对预训练基座模型进行领域数据(数学)的持续预训练时,增加CPT计算量会产生什么影响,以及如何平衡新知识的获取和旧知识的遗忘。此问题旨在探究扩展RL计算(增加轮数或数据量)对模型性能的影响,并试图理解RL提升性能的本质是增强了推理能力,还是仅仅改变了输出概率分布。

2026-05-03 10:08:47 245

原创 【大模型】EvoLM EvoLM: 探寻遗失的语言模型训练动态

摘要: EvoLM研究框架系统分析了语言模型全生命周期的训练动态,涵盖预训练、持续预训练、监督微调(SFT)和强化学习(RL)阶段。通过训练100+个1B/4B参数模型,研究发现: 预训练规模:模型性能随计算量增长而提升,但超过80-160倍模型参数的预训练后收益显著递减,甚至导致下游任务性能下降; 持续预训练:领域适应阶段需平衡新知识学习与通用能力保留,重放预训练数据可有效缓解遗忘; 微调阶段:SFT和RL对领域内任务(如数学)提升显著,但对领域外任务(如代码、逻辑)的泛化能力存在复杂权衡。实验表明,过度

2026-05-03 10:07:58 816

原创 【大模型】监督微调与强化学习:大型语言模型后训练方法的研究

摘要 本研究系统比较了监督微调(SFT)与强化学习(RL)在大型语言模型后训练中的优劣与协同效应。SFT通过专家标注数据直接优化模型输出,而RL则依赖奖励信号进行策略优化。研究发现:(1)SFT在数据质量高时表现优异,但易受分布偏移影响;(2)RL更适合复杂推理和交互任务,但需要大量探索;(3)混合方法(如结合SFT的初始策略与RL的在线优化)在数学推理、代码生成等任务中展现出最优性能。2023-2025年的趋势表明,从单一范式转向SFT-RL协同训练能显著提升模型准确性、鲁棒性和泛化能力。研究为LLM后训

2026-05-02 18:44:54 517

原创 【大模型技术报告】DeepSeek LLM Scaling Open-Source Language Models with Longtermism

开源大语言模型的发展速度确实令人瞩目。然而,现有文献中描述的缩放法则呈现出不尽相同的结论,这为大规模语言模型的扩展蒙上了一层阴影。我们深入研究了缩放法则,并针对当前广泛使用的7B与67B两种开源配置,提出了我们独特的发现,以促进大规模模型的扩展。在缩放法则的指导下,我们推出了DeepSeek LLM项目,这是一个致力于从长远视角推进开源语言模型发展的计划。为支持预训练阶段,我们构建了一个目前包含2万亿token且持续扩增的数据集。

2026-04-28 23:28:08 500

原创 【大模型智能体】智能体技能:面向大语言模型功能扩展的Claude技能数据驱动分析

本文摘要: 本研究对40,285个公开智能体技能进行了数据驱动分析,揭示了Claude技能生态系统的现状与发展趋势。研究发现技能增长呈现爆发式特征,2026年1-2月间技能数量激增18.5倍,单日最高新增8,857项。技能内容集中在软件工程领域,长度呈重尾分布(中位数1,414词),90%技能控制在3,935词以内。分析发现生态系统存在显著同质化现象,技能冗余度高,供需匹配失衡。同时识别出非平凡安全风险,包括可触发系统状态变更的高危技能。研究为智能体技能标准化、安全设计和质量评估提供了量化依据,指出了改进技

2026-04-20 21:09:29 506

原创 【大模型智能体】【Agent Skill综述】SoK: Agentic Skills — Beyond Tool Use in LLM Agents

摘要 本文系统化研究了智能体技能在大语言模型(LLM)智能体中的核心作用。智能体技能被定义为可重用、可调用的模块,封装了程序性知识、适用条件、执行策略和终止准则(形式化为四元组S=(C,π,T,R)),区别于原子化工具和一次性计划。研究提出了技能生命周期模型,涵盖发现、练习、精炼到组合的全过程,并建立了两种分类法:七种系统级设计模式(如元数据驱动技能、自进化技能库)和"表示形式×作用范围"正交分类。通过ClawHavoc攻击案例(1200个恶意技能渗透事件)揭示了技能相关的安全风险,包括

2026-04-19 18:36:25 543

原创 【大模型智能体】【综述】Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness

大型语言模型(LLM)智能体的构建方式正日益从调整模型权重转向重组其运行时环境。早期系统期望模型内部实现的能力,如今被外化至记忆存储、可复用技能、交互协议以及确保这些模块在实践中可靠运行的周边控制框架中。本文从外化的视角审视这一转变。借鉴认知人工物的概念,我们认为智能体基础设施的重要性不仅在于其增加了辅助组件,更在于它将艰巨的认知负担转化为模型能够更可靠解决的形式。在此视角下,记忆外化了跨时间的状态,技能外化了程序性专业知识,协议外化了交互结构,而控制框架工程则作为协调层,将这些部分整合为受治理的执行流程。

2026-04-18 19:20:57 592

原创 【大模型智能体】【Harness Engineering】Natural-Language Agent Harnesses

摘要 本文提出了一种新型智能体控制框架,通过将约束逻辑外化为可执行的自然语言对象,实现控制逻辑的可移植与模块化。研究构建了智能约束运行时(IHR)系统,包含循环内大型语言模型解释器、工具后端和共享运行时章程三部分。实验验证了该框架在编程与计算机操作任务中的可行性,重点评估了共享运行时的行为效应(RQ1)、模块可组合性(RQ2)以及代码到自然语言约束的迁移保真度(RQ3)。结果表明,该方法能够有效分离任务族特定逻辑与通用运行时策略,为智能体约束工程提供了新的研究方向。

2026-04-04 19:34:19 485

原创 【nanabot项目源码解读】events.py 逐行详细注释解析

events.py定义了 nanobot 消息总线的核心数据结构——消息事件类型。这是整个系统消息通信的"契约",所有模块通过这两个数据类进行消息交换。├── __init__.py # 模块导出├── events.py # 消息事件定义(本文件)⭐└── queue.py # 队列实现核心价值:类型安全:通过 Python 类型注解和 dataclass 确保消息格式一致性结构清晰:明确区分入站消息(用户→Agent)和出站消息(Agent→用户)可扩展性。

2026-03-30 15:44:02 42

原创 【nanabot项目源码解读】queue.py 逐行详细注释解析

类文档字符串:说明MessageBus的核心职责# "Async": 强调异步特性,所有操作都是非阻塞的# "decouples": 强调解耦作用,这是消息总线的首要设计目标# 工作流程说明:# 1. Channels(聊天渠道:Telegram/Discord/Slack等)将用户消息推送到inbound队列# 2. Agent(核心处理逻辑)从inbound队列消费消息进行处理# 3. Agent将处理结果(响应)推送到outbound队列。

2026-03-30 15:43:08 36

原创 【nanabot项目源码解读】第6篇:《Context 上下文管理:Prompt工程的系统化》

│ │ 记忆管理 │ │ 技能加载 │ │ 辅助工具 │ ││ 核心方法 ││ • build_system_prompt() → 构建系统提示词 ││ • build_messages() → 构建完整消息列表 ││ • _build_runtime_context() → 构建运行时上下文 ││ • _build_user_content() → 构建用户消息内容 │"""获取核心身份部分"""'macOS'

2026-03-30 15:40:44 373

原创 【nanabot项目源码解读】第5篇:LLM Provider 抽象层:多模型统一调用

│ LLMProvider (抽象基类) ││ │ 定义统一接口: chat(), chat_with_retry(), chat_stream() │ ││ ││ │ (适配器) │ │ (适配器) │ │ (适配器) │ ││ │"""抽象基类,定义LLM provider的统一接口。所有具体实现必须实现 chat() 和 get_default_model() 方法。"""_CHAT_RETRY_DELAYS = (1, 2, 4) # 重试延迟配置。

2026-03-30 15:39:57 56

原创 【nanabot项目源码解读】第4篇:消息总线 Bus:异步通信的核心枢纽

无消息总线的设计(紧耦合)# 每个渠道都要处理:连接管理、消息格式转换、错误重试...│ 消息总线架构 ││ ││ │ │ │ ││ ▼ ▼ ▼ ││ │ │ (渠道 → Agent) │ │ (Agent → 渠道) │ │ ││ │ ││ ▼ ││ │ (ReAct核心) │ ││ │| 价值 | 说明 |解耦| 渠道与Agent核心不直接依赖 |统一接口| 所有渠道使用相同的消息格式 |异步处理| 消息生产与消费分离,支持高并发 |可扩展。

2026-03-30 15:38:25 142

原创 【nanabot项目源码解读】nanobot 中工具调用格式化的重要性

方面说明核心目的UI展示、日志记录、调试追踪格式化规则工具名("参数值"),超长截断,无参数只显示工具名防御性处理支持列表/字典/None多种参数格式安全考虑截断显示避免敏感信息泄露用户体验简洁直观,便于理解Agent行为工具调用格式化是 nanobot可观测性的重要组成部分,让用户和开发者能够清晰地了解 Agent 的决策过程和执行步骤。

2026-03-27 21:58:30 66

原创 【nanabot项目源码解读】loop.py 逐行详细注释解析

Agent循环是核心处理引擎,实现ReAct(推理+行动)模式。核心职责:- 从消息总线接收入站消息- 构建包含历史、记忆、技能的上下文- 调用大语言模型生成响应- 执行工具调用(文件操作、网络请求等)- 将响应发送回消息总线""" _TOOL_RESULT_MAX_CHARS = 16_000 # 类常量:工具结果最大字符数限制(16KB) # 目的:防止过长的工具结果撑爆上下文窗口 # 例如:读取大文件或网页抓取可能返回大量文本__init__本文档对loop.py。

2026-03-27 21:17:54 370

原创 【nanabot项目源码解读】nanabot中哪些工具需要知道路由信息?

"message" → 必须知道往哪发消息"spawn" → 子代理要知道父任务的来源聊天"cron" → 定时任务要知道到期后通知谁。

2026-03-27 21:15:32 44

原创 【nanabot项目源码解读】nanabot中的chat_id和message_id到底是指什么?

字段层级用途channel平台层区分消息来源平台(telegram/discord等)chat_id会话层区分不同对话(用户/群组/频道)message_id消息层区分具体消息(用于回复/编辑)└── chat_id: "123456789" (用户A)├── message_id: "100" (第一条消息)├── message_id: "101" (第二条消息)└── message_id: "102" (第三条消息)└── chat_id: "987654321" (群组B)

2026-03-27 20:54:41 287

原创 【nanabot项目源码解读03】Agent Loop:ReAct模式的完整实现

ReAct(Reasoning + Acting)是LLM Agent的核心范式,由Google Research于2022年提出。该模式通过交替进行推理(Reasoning)和行动(Acting),使LLM能够解决复杂的多步骤任务。

2026-03-27 20:29:52 201

原创 【nanabot项目源码解读02】开发环境搭建与项目结构解析

nanobot/config/schema.py class Base(BaseModel) : """基础模型:支持camelCase和snake_case两种键名风格""" model_config = ConfigDict(alias_generator = to_camel , # 自动转换驼峰命名 populate_by_name = True # 允许通过原名赋值)

2026-03-27 20:03:27 151

原创 【nanabot项目源码解读01】nanobot 项目全景导览

对于开发者:清晰的Tool抽象接口支持MCP协议扩展易于集成外部API。

2026-03-26 23:10:47 212

原创 【nanabot项目源码解读】nanobot 深度解析与实战复现专栏

【代码】【nanabot项目源码解读】nanobot 深度解析与实战复现专栏。

2026-03-26 21:58:46 120

原创 【大模型RAG02】HyDE 精读

查询 q → [指令遵循LLM] → 假设文档 d̂ → [对比编码器] → 嵌入向量 v̂_q → [向量检索] → 真实文档核心流程:生成阶段:使用指令遵循语言模型(如InstructGPT)根据查询生成假设文档指令模板:“Write a passage that answers the question: [QUERY]”生成文档捕捉相关性模式,但可能包含虚构事实编码阶段:使用无监督对比编码器(如Contriever)将假设文档编码为稠密向量编码器作为"有损压缩器",过滤生成文档中的错误细节。

2026-03-20 23:27:06 92

原创 【大模型RAG01】

本文提出RAG(检索增强生成)框架,将参数化记忆(BART生成模型)与非参数化记忆(维基百科稠密索引)结合,用于知识密集型NLP任务。RAG通过将检索文档作为隐变量,在生成过程中边缘化处理,解决了传统模型知识更新难、可解释性差和容量有限的问题。论文对比了RAG-Sequence(全序列共享文档)和RAG-Token(每个token可切换文档)两种生成范式,前者计算效率高,后者支持多文档融合。实验表明,RAG在开放域问答等任务中表现优异,兼具知识可更新性、输出可解释性和参数/非参数知识的协同优势。

2026-03-19 22:37:52 152

原创 【大模型RAG】Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks

本文提出了一种检索增强生成模型(RAG),通过结合预训练的参数化记忆(BART生成器)与非参数化记忆(维基百科稠密向量索引),有效提升了知识密集型NLP任务的性能。研究比较了两种架构:RAG-Sequence固定使用同一检索文档生成完整序列,而RAG-Token允许每个标记选择不同文档。实验表明,该方法在开放域问答任务上超越现有最佳模型,生成内容更具针对性、多样性和事实准确性。模型支持端到端训练,通过替换非参数化记忆模块可动态更新知识,为解决语言模型的知识更新和溯源问题提供了新思路。

2026-03-19 21:49:49 489

原创 【大模型智能体】【Moltbook】Exploring Silicon-Based Societies: An Early Study of the Moltbook Agent Community

摘要——自主大型语言模型智能体的迅速兴起,催生了持久性、大规模智能体生态系统,其集体行为无法通过轶事观察或小规模模拟得到充分理解。本文提出数据驱动的硅基社会学作为系统性的实证框架,用以研究交互式人工智能体间的社会结构形成。我们通过对Moltbook(一个主要为智能体间交互设计的社会化平台)进行分析,开展了针对自然状态智能体社会的开创性大规模数据挖掘研究。在研究期间,Moltbook托管着超过15万个注册自主智能体,活跃于数千个由智能体创建的称为"submolts"的子社区中。

2026-03-18 22:00:07 375

原创 【大模型技术报告】【GPT-2】

自然语言处理任务,如问答、机器翻译、阅读理解和摘要生成,传统上通常通过对特定任务数据集进行监督学习来实现。我们证明,当在一个名为WebText、包含数百万网页的新数据集上进行训练时,语言模型在没有明确监督的情况下便开始学习这些任务。当以文档加问题为条件时,该语言模型生成的答案在CoQA数据集上达到了55 F1值——在不使用超过12.7万条训练样本的情况下,其性能与四分之三的基线系统持平或更优。语言模型的容量对于零样本任务迁移的成功至关重要,增加模型容量可在各项任务中以对数线性方式提升性能。

2026-03-11 23:24:14 319

原创 【Agent论文拆解01】ReAct:把推理与行动交错起来,为什么它成了很多Agent的起点

这篇论文应该被看作现代 Agent 闭环范式的起点,而不是最终工程解法。对研究者,它值得精读,因为它把“推理为什么必须进入 agentt 失败,不是不会调工具,而是不会在工具前后组织 reasoning。

2026-03-11 22:35:40 91

原创 【大模型技术报告】【GPT-1】Improving Language Understanding by Generative Pre-Training

自然语言理解涵盖广泛多样的任务,例如文本蕴含、问答、语义相似度评估和文档分类。尽管大规模无标注文本语料库十分丰富,但用于学习这些特定任务的标注数据却相对稀缺,这使得基于判别式训练的模型难以取得理想性能。我们的研究表明,通过在多样化的无标注文本语料库上进行生成式预训练,再针对每个具体任务进行判别式微调,可以显著提升这些任务的性能。与以往方法不同,我们在微调过程中采用任务感知的输入转换方法,只需对模型架构进行最小改动即可实现有效的知识迁移。我们在多种自然语言理解基准测试中验证了该方法的有效性。

2026-03-11 21:47:28 478

原创 【Agent 系统综述 01】|什么是 Agent:从 Workflow 到 Autonomous System 的统一框架

摘要: 当前AI领域存在"Agent"概念泛化现象,导致其失去技术区分度。真正的Agent应具备多步决策、动态重规划和环境交互能力,而非仅调用API或分步输出。本文提出Agent的七层系统模型:目标驱动、规划、执行、工具使用、记忆、环境反馈和评测,强调其核心在于基于反馈的闭环控制。研究指出,缺乏明确边界的Agent定义会阻碍技术评估与工程落地,需将其视为连续谱而非二元标签。当前Agent技术仍面临真实场景规划与语义对齐等挑战,需建立系统性框架以指导未来发展。

2026-03-11 21:32:07 303

原创 【大模型后训练综述】A SURVEY ON POST-TRAINING OF LARGE LANGUAGE MODELS

大型语言模型的出现从根本上改变了自然语言处理领域,使其在对话系统到科学探索的广泛领域中成为不可或缺的工具。然而,其预训练架构在专业应用场景中常显露出局限性,包括受限的推理能力、伦理不确定性以及领域特定性能欠佳等问题。这些挑战催生了需要高级后训练语言模型来应对相关不足,例如OpenAI-o1/o3与DeepSeek-R1(统称为大型推理模型)。本文首次对后训练语言模型进行全面综述,系统追溯其在五大核心范式中的演进路径:微调范式提升任务特定精度;对齐范式确保伦理一致性并契合人类偏好;推理范式在多步推断方面取得进

2026-02-27 23:10:46 1215

原创 【大模型后训练综述】A Survey of Post-Training Scaling in Large Language Models

大型语言模型(LLMs)在理解和生成人类自然语言方面取得了显著成就,这主要归功于优化语言建模损失、模型参数量与预训练词元之间关系的“缩放定律”。然而,随着高质量互联网语料库的枯竭和计算需求的不断增长,预训练阶段的持续扩展问题亟待解决。本文对“训练后扩展”这一新兴范式进行了全面综述,该范式旨在通过聚焦于传统上仅占总训练计算量较小部分的对齐阶段,以缓解传统预训练范式的局限性。我们将训练后扩展归纳为三类核心方法:监督微调(SFT)、基于反馈的强化学习(RLxF)以及测试时计算(TTC)。

2026-02-27 00:33:27 1307

原创 【大模型综述】A Survey on Efficient Large Language Model Training: From Data-centric Perspectives

大型语言模型(LLM)的后训练对于释放其任务泛化潜力和领域特定能力至关重要。然而,当前LLM后训练范式面临显著的数据挑战,包括人工标注的高昂成本以及数据规模带来的边际收益递减。因此,实现数据高效的后训练已成为一个关键的研究问题。本文首次从数据中心的视角,对数据高效的LLM后训练进行了系统性综述。我们提出了一种数据高效LLM后训练方法的分类体系,涵盖了数据选择、数据质量增强、合成数据生成、数据蒸馏与压缩以及自演进数据生态系统。我们总结了各类别中的代表性方法,并勾勒了未来的研究方向。

2026-02-26 23:12:36 1042

原创 【大模型微调综述】Instruction Tuning for Large Language Models: A Survey

本文综述了快速发展中的指令调优(Instruction Tuning,IT)领域的研究工作,该技术亦可称为监督式微调(Supervised Fine-Tuning, SFT),是提升大语言模型(LLMs)能力和可控性的一项关键技术。指令调优指的是在由(指令,输出)对组成的数据集上以监督方式对大语言模型进行进一步训练的过程,它弥合了LLMs的下一个词预测目标与用户期望LLMs遵循人类指令目标之间的差距。

2026-02-26 22:12:30 1268

原创 【大模型智能体】Building multi-agent systems: When and how to use them Anthropic 多智能体系统技术博客深度解析

复杂性守恒定律:多智能体并未减少系统复杂性,而是将复杂性从提示词工程转移到了协调架构设计。当模型能力(如 Claude 3.5 Sonnet 的 200K 上下文窗口)提升时,单智能体的适用边界会扩张,需定期重新评估架构选择。上下文即瓶颈:在多智能体系统中,上下文窗口的管理(隔离、压缩、传递)比计算并行化更为关键。优秀的多智能体架构本质上是优秀的上下文流架构。验证的独立性:验证子智能体的有效性源于其与实现上下文的完全隔离。任何需要验证者"理解实现细节"的设计都违背了该模式的核心优势。

2026-02-25 23:44:52 1085

原创 【大模型智能体】【Anthropic技术博客】Building multi-agent systems: When and how to use them

发布日期 2026年1月23日构建多智能体系统:适用场景与实施方法虽然单智能体系统能有效处理多数企业工作流,但多智能体架构能为组织释放额外价值。了解其适用场景与实施方法。多智能体系统是一种架构,其中多个大型语言模型实例在独立的对话上下文中运行,并通过代码进行协调。目前存在多种协调模式(智能体集群、基于能力的系统以及消息总线架构等),但本文重点关注编排器-子智能体模式:这是一种分层模型,由主导智能体创建并管理专门用于执行特定子任务的专用子智能体。

2026-02-25 21:58:48 1885 1

原创 【大模型智能体】为现实世界中的智能体配备Agent技能

Claude推出"智能体技能"功能,通过结构化文件与文件夹为AI智能体提供专业知识支持。该功能包含三个核心设计:1) 渐进式信息加载机制,由元数据到详细内容按需调用;2) 支持代码执行,将确定性任务交给传统程序处理;3) 安全审查机制,防范恶意技能。技能系统使通用AI能快速适配专业场景,目前已支持跨平台使用。未来将拓展至智能体自主创建技能的能力,推动AI工作流标准化。该功能显著提升了AI在复杂任务中的专业表现,同时保持系统的安全性与可扩展性。

2026-02-24 21:17:06 794

原创 【大模型智能体】大型语言模型的智能体能力:架构、习得、安全性与未来路径

从单体语言模型向模块化、技能赋能智能体的转变,标志着大型语言模型(LLMs)实际部署方式的一次根本性转折。智能体技能——即按需加载的、由指令、代码和资源组成的可组合包——使得动态能力扩展无需重新训练成为可能,而无需将所有程序性知识编码于模型权重之中。这一范式通过渐进式上下文披露、可移植技能定义以及与模型上下文协议(MCP)的集成得以形式化。本综述对智能体技能领域进行了全面阐述,该领域在过去几个月中发展迅速。

2026-02-24 20:19:12 1384

原创 【大模型综述】Large Language Models: A Survey

摘要——自2022年11月ChatGPT发布以来,大语言模型(LLMs)因其在广泛自然语言任务上的强大表现而备受关注。正如缩放定律[1],[2]所预测的,大语言模型的通用语言理解与生成能力是通过在海量文本数据上训练数百亿模型参数而获得的。大语言模型研究领域虽较新,却正以多种不同方式迅速发展。本文回顾了一些最著名的大语言模型,包括三个主流的模型系列(GPT、LLaMA、PaLM),并探讨了它们的特性、贡献与局限性。同时,我们概述了构建与增强大语言模型的相关技术。

2026-02-23 23:33:16 1462

目标检测历史,HistoryOfObjectRecognition

非常好的介绍目标检测算法演进过程的pdf,图文并茂,用时间线的方式回顾了深度学习时代目标检测算法的发展过程,包括一阶段和二阶段的算法,同时详细说明和介绍了目标检测领域许多专业术语的意义

2024-03-03

雷达通信电子战 基于 MATLAB和Python

运用matlab和python语言对雷达方程和雷达各系统进行建模仿真

2023-10-04

模式识别算法MATLAB实现

本书广泛吸取统计学、 神经网络、 数据挖掘、 机器学习、 人工智能、 群智能计算等学科的先进思想和理论, 将其应用到模式识别领域中; 以一种新的体系, 系统、 全面地介绍模式识别的理论、 方法及应用。 全书分为 14 章, 内容包括: 模式识别概述, 特征的选择与优化, 模式相似性测度, 基于概率统计的贝叶斯分类器设计, 判别函数分类器设计, 神经网络分类器设计 (BP 神经网络、 径向基函数神经网络、 自组织竞争神经网络、 概率神经网络、 对向传播神经网络、 反馈型神经网络), 决策树分类器设计, 粗糙集分类器设计, 聚类分析, 模糊聚类分析, 禁忌搜索算法聚类分析, 遗传算法聚类分析, 蚁群算法聚类分析, 粒子群算法聚类分析。 本书内容新颖, 实用性强, 理论与实际应用密切结合, 以手写数字识别为应用实例, 介绍理论运用于实践的实现步骤及相应的 Matlab 代码, 为广大研究工作者和工程技术人员对相关理论的应用提供借鉴。

2023-10-04

雷达工程与技术 反隐身技术 先进米波雷达

先进米波雷达

2021-11-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除