- 博客(302)
- 收藏
- 关注
原创 LangChain ShellTool 深度解析:从基础使用到安全增强(限制shell的执行权限)
本文全面解析了LangChain生态中的ShellTool工具,从基础使用到Agent集成再到安全增强。ShellTool作为连接大语言模型与操作系统的桥梁,允许执行shell命令进行系统交互。文章首先介绍基础用法,然后展示如何集成到Agent中处理复杂任务,最后重点讲解安全增强方案,通过白名单、黑名单和目录限制等机制构建SafeShellTool。最佳实践部分强调安全使用建议、适用场景和性能考量。ShellTool为AI应用提供了强大的系统交互能力,但需谨慎使用以确保安全。
2026-03-22 12:24:18
38
原创 全网都在抢的「AI龙虾」大乱斗!4家神仙打架,普通人只能看馋
有Mac+抢到邀请 → 玩腾讯Q-Claw想简单无脑上手 → 冲智谱AutoClaw爱摸鱼想云端养 → 选字节Coze小米17系列+极客身份 → 等小米MiClaw邀请总之,现在的AI龙虾圈就是:大厂内卷、用户抢码、普通人坐等公测~你抢到内测资格了吗?评论区聊聊你最想养哪只龙虾!
2026-03-17 15:53:27
229
原创 AI圈炸了!全民养龙虾、Siri换芯、国产大模型爆发|3.8-3.9热点全梳理
AI从"聊天"走向"行动":智能体Agent成为新入口本地+隐私成标配:企业与个人更看重数据安全国产技术全线提速:大模型、端侧、硬件同步突破机会与风险并存:装机热背后,安全与合规不能少一句话预判:人人拥有专属AI数字员工的时代,真的来了。图 | AI时代总结Part.07 互动与关注。
2026-03-09 19:19:40
386
原创 爆火的“龙虾AI“OpenClaw:从程序员玩具到全网顶流,它的故事藏着AI的未来
2026年开年,科技圈被一只"龙虾"霸屏了。它不是餐桌上的麻辣小龙虾,也不是水族馆里的观赏生物,而是一个名叫OpenClaw的开源AI项目。粉丝们自称"甲壳教徒",喊着"记忆是神圣的"口号,疯狂"养虾";工信部紧急发布安全警告,提醒大家警惕它的潜在风险;它从一个程序员的业余玩具,短短3个月登顶GitHub热榜,经历两次改名风波,却越挫越火。今天,我们就来扒一扒OpenClaw的前世今生,聊聊它背后那些让人啼笑皆非的趣闻,以及牵动全网的热点新闻,读懂这只"龙虾"为何能掀起全球AI狂潮。
2026-03-08 17:06:53
876
原创 玩转大语言模型——在Windows环境下本地部署openclaw
安装openclaw需要用到linux环境,在windows环境中可以使用WSL实现,WSL的安装过程可以参照以下博客,本文不再赘述。
2026-03-07 19:11:37
114
原创 2月26日AI全景日报:国产AI历史性反超、全球算力狂飙,一个时代正式开启
2026年2月26日成为AI发展里程碑:中国AI模型调用量首次超越美国,全球前五模型中国占四席;可灵3.0登顶文生视频榜首,华为云码道上线,国产AI实现全维度突破。英伟达财报创纪录,Meta与AMD签600亿美元芯片订单,全球算力竞赛白热化。AI应用全面爆发,从消费到产业实现规模化落地,同时全球监管收紧,安全伦理成为焦点。这一天标志着中国AI从追赶到领跑、行业从技术竞赛转向应用落地、发展模式从野蛮生长转向规范合规三大历史性转折。
2026-02-27 12:21:59
520
原创 2月25日AI全景日报:国产模型狂飙、全球算力豪赌、安全与监管齐升级
2026年2月25日,不是普通的一天。它是国产AI全球化的里程碑,是全球算力军备赛的宣言书,是AI安全与监管的分水岭。AI不再是概念,而是生意、基础设施、国家竞争力。对于企业与个人,跟上AI、用好AI,就是抓住这个时代的最大机遇。关注我们,每日获取最深度、最完整、最有价值的AI行业日报,不错过每一个风口。
2026-02-26 12:54:27
353
原创 打破信息差——2月24日AI全景日报:巨头博弈、技术狂飙、政策加码,全球AI赛道迎来历史
海南省发布《“人工智能+”行动方案(2026-2028年)》,聚焦商业航天、防灾减灾等场景,打造特色AI产业生态;国内三部门明确AI算力成本纳入研发费用加计扣除,税收优惠助力企业减负。2026年2月24日,是AI行业平凡却又关键的一天。这里有巨头的兴衰、技术的突破、地缘的博弈,更有产业的希望。AI不再是遥远的未来,而是正在发生的现实。对于每一个人、每一家企业而言,拥抱AI、跟上节奏,就是抓住这个时代的最大机遇。关注我们,每日获取最深度、最完整、最有价值的AI行业日报。
2026-02-25 07:39:10
630
原创 打破信息差——2026年2月23日AI全景日报
2月23日的两大事件,彻底改写了国内大模型赛道的叙事逻辑: 过去行业比拼参数大小、训练速度、论文数量;现在行业比拼收入规模、付费用户、全球化能力、企业服务渗透率。商业化兑现,成为2026年大模型赛道唯一的核心考核标准。2026年2月23日,不是一个普通的日子。它是国产大模型商业化的里程碑,是AI民生应用的起点,是具身智能爆发的信号,也是全球AI格局重构的开始。对于普通人、创业者、企业决策者而言: AI不再是遥远的概念,而是必须抓住的机遇。2026年,所有行业都值得用AI重做一遍。
2026-02-24 11:23:17
777
原创 打破信息差——2月22日AI全景:算力理性、视频革命、安全合规,行业正式进入下半场
AI行业进入理性深耕阶段:效率、安全、合规成新主线 2026年2月22日,全球AI行业迎来关键转折。OpenAI大幅下调算力预算,转向效率优先;Sora 2.0突破10分钟视频生成,多模态技术进入实用化阶段;李飞飞团队获10亿融资,3D空间AI加速落地。同时,AI安全风险凸显,黑客利用AI攻破600+防火墙,版权争议升级,监管趋严。行业从野蛮生长转向理性发展,算力精准投入、技术商业化落地、安全合规治理成为核心趋势。AI正从实验室走向社会基础设施,效率与风险管控并重。
2026-02-23 10:52:59
878
原创 打破信息差——2月21日AI全域热点全复盘
2026年2月21日成为全球AI发展里程碑,行业呈现技术突破、资本重构与产业落地的多维爆发。技术端,谷歌Gemini 3.1 Pro推理性能翻倍,OpenAI发布GPT-5.3并获千亿融资,模型竞赛转向实用化;资本端,OpenAI估值逼近万亿美元,算力投资趋于理性,国产AI港股单日暴涨42%。中国实现科研与商用双突破,罕见病诊断系统登顶《自然》,智谱AI付费套餐售罄,自主生态加速成型。政策推动AI深度融入实体经济,企业进入"强制AI化"阶段。行业整体告别野蛮生长,呈现专业化、理性化、主权
2026-02-22 10:15:03
621
原创 打破信息差——2026年2月20日AI技术大爆发全解析
2026年2月19-20日,全球AI领域迎来爆发性突破。中国在医疗AI和芯片研发取得重大成果:DeepRare罕见病诊断系统登顶《Nature》,清华推出全球首款量产级全柔性AI芯片FLEXI。OpenAI、xAI等企业密集发布GPT-5.2、Grok4.2等新一代AI模型,性能显著提升。全球算力军备赛升级,英伟达、Meta等企业加速布局。资本市场火热,OpenAI融资超千亿美元,国内月之暗面获7亿美元投资。AI应用已渗透至机器人、可穿戴设备、游戏开发等多个领域,产业化进程加速。这48小时标志着AI技术从实
2026-02-20 09:11:45
1512
原创 技术速递——通义千问 3.5 深度横评:纸面超越 GPT‑5.2,实测差距在哪?
阿里通义千问Qwen3.5-Plus技术测试报告显示,该模型采用稀疏MoE、混合注意力和原生多模态三大创新架构,397B总参数仅激活17B,实现高效部署。实测验证其性能超越GPT-5.2等闭源模型,256K长文本处理速度提升19倍,多模态识别准确率达98%,Agent任务完成率100%,且百万Token成本仅0.8元。报告证实Qwen3.5在架构效率、多模态融合和场景落地方面表现优异,为中小企业提供了高性能、低成本的AI解决方案,推动开源大模型进入工业化应用阶段。
2026-02-20 08:49:21
1892
原创 打破信息差——2026年2月19日AI热点新闻速览
医疗AI行业呈现巨头布局入口、初创深耕垂类的分化格局。OpenAI推出ChatGPTHealth并收购数据公司,Anthropic主攻B端医疗流程,中国百川智能将医疗大模型幻觉率降至2.6%。央视春晚机器人表演引发外媒热议,彰显中国AI与制造业融合成果。国际方面,高通投资印度AI基金1.5亿美元,阿达尼集团计划千亿美元AI数据中心建设。美国财政部发布AI金融安全资源,Meta推出反AI勒索协议。行业趋势显示,医疗AI正从技术竞赛转向价值验证,中美应用路径差异明显,全球关注点转向AI实际效益。
2026-02-19 19:27:07
1362
原创 大模型原理剖析——多头并行 + 潜变量协同:原理、应用与部署优化
“多头并行+潜变量协同”是深度学习的核心架构,通过多子空间并行挖掘差异化特征(如LLM的语法/语义关联、ASR的频谱/时序依赖),并整合潜变量突破表达瓶颈。其优势在于: 高效并行:适配GPU/CPU硬件加速,显存占用降低50%,推理速度提升2-3倍; 精准建模:LLM生成逻辑性提升30%,ASR在噪声环境错误率降低10%-20%; 灵活部署:支持轻量模型(h=8-16,单卡部署)到大规模模型(h=32-64,多卡并行),平衡效果与成本。
2025-12-25 11:09:39
653
原创 大模型原理剖析——矩阵吸收优化:LLM推理加速的核心原理与实践
矩阵吸收优化是一种针对Transformer自注意力机制的无损推理加速技术。其核心思想是利用矩阵乘法结合律和模型参数的固定性,通过预计算合并查询和键的投影矩阵W_qk=W_q^U·(W_k^U)^T,将标准自注意力计算中的3次矩阵乘法减少为2次。该技术可降低30%-40%的计算量,实现1.5-2倍推理加速,尤其适用于长序列和高并发场景。优势包括无精度损失、实现简单、兼容其他优化技术,但仅适用于推理阶段。工程实现仅需预计算W_qk并调整计算顺序,是LLM推理优化的有效手段。
2025-12-25 10:08:39
895
原创 大模型原理剖析——解耦RoPE(旋转位置编码)的基本原理
本文介绍了改进传统旋转位置编码(RoPE)的解耦RoPE(DRoPE)方法。传统RoPE将位置与维度直接耦合,导致长序列场景下高频维度饱和、低频维度区分度不足的问题。解耦RoPE通过引入独立的缩放因子,拆分位置与维度的耦合关系,使不同维度的位置编码敏感度可独立调节。分组解耦形式分别设置高低频维度的缩放因子,平衡长短序列表现。代码实现显示该方法仅需轻微修改传统RoPE计算逻辑,不增加额外开销。解耦RoPE显著提升了模型对长序列的适应性,可广泛应用于长文本建模和大模型上下文扩展场景。
2025-12-23 13:59:43
1025
原创 大模型原理剖析——突破LLM效率瓶颈:多标记预测(MTP)技术深度解析与实战
多标记预测(MTP)技术通过单次前向传播同时预测多个后续词元,显著提升大语言模型的生成效率。相比传统逐词元生成方式,MTP在训练阶段增加信号密度,推理阶段结合推测解码可实现1.8-2.6倍加速。DeepSeek提出的链式MTP架构通过依赖前序表征保证文本连贯性。实战示例展示了PyTorch实现框架,包含共享编码器和多头预测结构。MTP在长文本生成等场景优势明显,是优化LLM性能的重要方向。
2025-12-23 11:05:02
915
原创 大模型原理剖析——多头潜在注意力 (MLA) 详解
多头潜在注意力(MLA)是DeepSeek团队提出的创新机制,通过低秩压缩键值缓存至潜在空间,显著降低内存占用(减少53%)和计算开销(延迟降低53%)。MLA采用解耦RoPE、矩阵吸收优化等技术,在保持模型性能的同时支持长文本处理(32K token)。相比传统注意力机制,MLA具有内存效率高(缓存仅为MHA的1/8)、计算速度快等优势,特别适合大规模模型部署和多模态融合应用。该技术为AI系统的高效化开辟了新路径,有望成为下一代大模型的标准组件。
2025-12-22 20:52:28
1040
原创 大模型原理剖析——DeepSeek-V3深度解析:671B参数MoE大模型的技术突破与实践
DeepSeek-V3通过“MoE架构+MLA注意力+负载均衡+混合精度训练+MTP生成”的技术组合,在671B参数规模下实现了“能力强、速度快、成本低”的平衡;而DeepSeek-R1则填补了“深度逻辑分析”的场景空白。二者形成互补,覆盖了通用任务与专业推理的需求。
2025-12-22 20:09:41
1024
原创 大模型原理剖析——拆解预训练、微调、奖励建模与强化学习四阶段(以ChatGPT构建流程为例)
本文解析了ChatGPT四阶段构建流程:1)自监督预训练阶段通过海量文本学习语言规律;2)有监督微调阶段用标注指令数据训练模型理解人类需求;3)奖励建模阶段构建文本质量评估体系;4)强化学习阶段基于反馈优化模型输出。每个阶段在数据规模、算法类型和计算资源上都有特定要求,通过层层递进的训练最终实现模型的智能表现。该流程体现了从基础能力奠基到精细化优化的完整技术路径。
2025-12-21 17:14:35
1006
原创 大模型原理剖析——从技术特性、底层架构到落地逻辑的全维度解析
大模型的核心能力源于超大规模参数(百亿级以上)与自监督预训练(如掩码语言建模、自回归预测),结合万亿级多模态数据训练,实现通用语义理解。其独特涌现能力(如思维链推理)在参数突破阈值后显现。基于Transformer架构的注意力机制和残差连接支撑了模型的扩展性。行业现状呈现技术同质化(Transformer主导)与头部垄断(高算力/数据壁垒)。落地应用需结合场景特性,如文本生成(自回归预测)、智能客服(检索增强生成RAG)、多模态任务(跨模态对齐)等。大模型本质是数据与规模驱动的语义引擎,技术底层逻辑
2025-12-21 10:24:03
759
原创 探索大语言模型(LLM):MarkDown格式文档的结构化提取全流程
在做RAG工作中,数据处理的好坏往往决定着RAG效果的好坏。经过实际的测试,MarkDown格式的文本相较docx、pdf等格式无疑是最合适的,本篇将详细介绍MarkDown格式文档的结构化提取的全流程。
2025-10-24 12:48:31
1042
原创 大模型面试题剖析:LoRA高效微调的核心原理
大型语言模型(LLM)参数规模极大,全参数微调存在诸多难题:- **成本高昂**:需存储和更新所有模型参数副本,训练开销大。- **部署困难**:每个任务都要存储完整模型副本,占用大量存储空间。- **资源需求高**:对计算资源和GPU内存要求严苛,普通设备难以支撑。
2025-10-14 21:00:00
1658
原创 大模型面试题剖析:全参微调与LoRA的资源占用解析
在深度学习模型的全参微调过程中,资源占用主要来自模型权重参数、优化器状态向量和梯度这几个关键部分,我们来详细看看它们的计算公式和含义。
2025-10-14 21:00:00
598
原创 大模型面试题剖析:大模型训练关键技术解析(从 RLHF 、RLAIH、DPO到 SFT)
在大模型的迭代优化过程中,如何让模型输出更符合人类预期、更适配特定任务,一直是技术研发的核心方向。本文将围绕人类反馈的强化学习(RLHF)、AI 反馈强化学习(RLAIH)、直接偏好优化(DPO)以及监督式微调(SFT)等关键技术展开,深入解析它们的核心原理、实施流程与技术特点,帮助读者理清大模型训练技术的脉络。
2025-10-13 14:10:59
660
原创 探索大语言模型(LLM):大模型微调方式全解析
在大模型落地实践中,微调(Fine-tuning)是连接通用预训练能力与特定任务需求的关键环节。通过微调,我们能让在海量数据上预训练的模型 “适配” 具体业务场景,比如客服对话、代码生成、医学文献分析等。本文将系统梳理六种主流微调方式,从核心原理、参数调整逻辑到适用场景,帮你快速掌握不同方案的选型思路。
2025-10-06 18:10:36
907
4
原创 大模型面试题剖析:深入解析 Transformer 与 MoE 架构
在人工智能大模型飞速发展的今天,Transformer 架构无疑是撑起整个领域的 “基石”,而 MoE(Mixture of Experts)架构则凭借其独特的 “稀疏激活” 思路,成为突破大模型参数规模与计算效率瓶颈的 “关键引擎”。无论是 ChatGPT 背后的技术支撑,还是自动驾驶中的多模态感知,这两种架构都扮演着不可或缺的角色。本文将从核心原理、大模型设计逻辑和关键差异三个维度,带大家全面读懂 Transformer 与 MoE 架构。
2025-10-06 16:21:42
915
原创 探索大语言模型(LLM):一文读懂通用大模型的定义、特点与分类
在人工智能技术飞速发展的当下,通用大模型无疑是最受关注的领域之一。它凭借强大的能力打破了传统 AI 模型的局限,为各行业的智能化升级提供了全新可能。本文将从通用大模型的定义出发,深入剖析其核心特点,并详细梳理常见的分类方式,带大家全面认识这一前沿技术。
2025-10-06 15:48:57
1096
原创 大模型面试题剖析:模型微调中冷启动与热启动的概念、阶段与实例解析
在人工智能模型的开发流程中,微调是让预训练模型适配特定任务、提升性能的关键环节。而在微调的启动方式上,“冷启动” 和 “热启动” 是两个高频出现但容易混淆的概念。很多刚接触模型微调的开发者,常会疑惑二者的核心区别的适用场景。今天这篇博客,就用通俗易懂的语言拆解这两个概念,结合实际微调案例,帮你搞懂什么时候该用冷启动,什么时候该选热启动。
2025-10-03 17:41:49
827
原创 探索大语言模型(LLM):Windows系统与Linux系统下的Ollama高级配置(修改模型地址、Service服务以及多卡均衡调用)
在之前的探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)中,已经介绍了ollama在Windows环境下和Linux环境下的安装,在本篇中将重点介绍Ollama的常用配置
2025-09-16 09:31:41
1452
原创 大模型面试题剖析:RAG中的文本分割策略
在大语言模型(LLM)驱动的应用场景中,检索增强生成(RAG)技术愈发关键。而文本分割,作为RAG流程里的核心环节,直接影响着整个系统的性能与效果。接下来,我们将从文本分割的重要性、在RAG中的位置、不同分割方法以及实践建议等方面,进行全面且深入的剖析。
2025-09-15 15:00:16
1115
原创 探索大语言模型(LLM):Open-WebUI的安装
Open-WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs),成为私有化部署的便捷工具,本文将介绍如何部署并使用Open-WebUI。
2025-09-11 17:30:31
658
1
原创 探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)
Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用,能够在同等配置下跑更大的模型,是非常适合个人学习使用的平台。本篇将详细介绍Ollama在各种平台上的详细安装过程以及应用。
2025-09-11 16:27:20
1760
原创 大模型面试题剖析:大模型微调数据集构建
在大模型技术栈中,微调(Fine - tuning)是使预训练大模型适配特定领域任务的核心手段,而微调数据集作为模型训练的“燃料”,其构建的科学性与工程化程度直接决定微调效果上限。本文从流程、规模、工业实现、强化学习适配等维度,系统解析大模型微调数据集的构建技术。
2025-09-04 10:03:21
630
原创 大模型面试题剖析:大模型多模态微调技术全解析
在人工智能领域,大模型多模态微调是让模型具备跨模态理解与生成能力的关键技术。它能使模型更好地适配特定场景,在视觉问答、医疗影像诊断等诸多领域发挥重要作用。下面将从多模态大模型结构、微调方法、数据准备、应用场景以及面临的挑战等方面展开详细解析。
2025-09-03 11:44:01
837
原创 大模型面试题剖析:大模型多机多卡微调全解析
在大模型时代,模型参数规模呈爆炸式增长,单卡训练已难以满足需求,多机多卡微调成为大模型训练与优化的关键技术。本文将从多机多卡微调的核心原理、实现方式、工程实践要点以及面临的挑战等方面展开详细介绍。
2025-09-02 17:26:20
540
原创 大模型面试题剖析:全量微调与 LoRA 微调
在当今的人工智能领域,大模型已成为推动众多应用发展的核心力量。然而,预训练的通用大模型往往无法直接完美适配各种特定的下游任务。为了让模型在特定任务中展现出卓越性能,微调技术应运而生。本文将深入探讨两种重要的微调方式:模型全量微调与 LoRA(Low-Rank Adaptation)高效微调,详细阐述它们的原理、优势以及在实际应用中的表现。
2025-09-01 16:40:31
757
基于tensorflow的手语检测
2022-11-04
人脸检测和动漫脸检测剪裁脚本.zip
2022-11-04
python实现用于图片拟合的免疫遗传算法
2022-04-11
python实现使用遗传算法进行图片拟合
2022-02-21
甲状腺癌复发数据集(RAI 治疗后的甲状腺癌数据集,分析性别、年龄和风险因素)
2025-04-15
注释超声肝脏图像数据集
2025-04-15
IMDb 电影类型分类数据集
2025-04-15
电动汽车保有量数据集(来自美国政府的电动汽车数量数据)
2025-04-15
土壤污染和相关健康影响数据集
2025-04-15
沃尔玛股票数据(2000年至2025年)
2025-04-15
骨折数据集 – 胫骨和腓骨
2025-04-15
GraphRAG输出中文提示词
2025-02-18
机器学习资料、实验代码及报告.zip
2023-02-17
航拍语义分割(附数据集).zip
2023-02-17
用于语义分割的航拍数据集
2023-02-17
手写数学符号识别项目-Handwritten-math-symbols-recognition.zip
2023-02-17
stable diffusion内存溢出
2023-02-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅