- 博客(369)
- 资源 (6002)
- 收藏
- 关注
原创 人工智能|大模型——训练——大模型微调全栈指南:从Transformer架构、10+种PEFT原理、流程与实战(全网最详细)
本文是一份面向工程落地的大模型参数高效微调(PEFT)深度技术指南,严格依据 8 篇权威技术文档(知乎专栏、CSDN 博客、阿里云文章、AI全书等)的原始事实提炼而成。全文覆盖:① 大模型“预训练→微调”两阶段范式本质;② Transformer 架构中各 PEFT 方法的作用位置与数学原理;③ LoRA、QLoRA、Adapter Tuning、Prefix Tuning、Prompt Tuning、P-Tuning v1、P-Tuning v2 共 7 种主流方法的完整技术解构(含公式、结构图示逻辑、参
2026-04-10 11:31:15
378
原创 人工智能|大模型——记忆——大模型 Memory 技术全景解析:Form–Function–Dynamics 三维框架 × 五大前沿范式 × 全生命周期管理与可信挑战
本文系统梳理了大模型记忆技术的最新研究进展,基于Form-Function-Dynamics三维框架,对记忆系统的本质定义、分类体系、核心范式及实现方法进行了全面解析。文章首先澄清了记忆与上下文窗口、RAG、工具调用的本质区别,提出记忆是大模型智能体的核心能力单元。随后详细阐述了记忆在形式(Token/Parametric/Latent)、功能(Factual/Experiential/Working)和动态(Formation/Evolution/Retrieval)三个维度的正交分类体系,并结合TIM、
2026-04-08 17:10:17
391
原创 人工智能|大模型——蒸馏——大模型蒸馏详解(定义/原理/关键技术/落地)
摘要 大模型蒸馏(Model Distillation)是一种将大型教师模型(如BERT、GPT-4)的知识高效迁移至轻量级学生模型(如DistilBERT)的关键技术,旨在解决大模型部署中的算力与延迟问题。其核心流程包括教师模型训练、软标签生成(含温度参数T调控)、学生模型联合训练及评估优化。关键技术涉及KL散度损失、温度参数调节、输出层与中间层双路径知识转移。工业实践表明,蒸馏模型如DistilBERT可实现推理速度提升2.5倍,而DeepSeek-R1-Distill在数学推理任务上性能媲美原模型。该
2026-04-01 17:09:45
503
原创 人工智能|大模型——应用——降低OpenClaw Token成本的四大策略
初期与资源层:优先领取阿里云百炼或国家超算互联网的免费额度,奠定低成本基础。框架与配置层:应用一键优化脚本,开启上下文修剪、缓存和压缩功能。业务逻辑层:对重复、固定的任务,使用进行封装,减少大模型的“思考”负担。知识检索层:对于涉及大量文档或历史记忆的应用,集成QMD实现离线检索,从根本上砍掉检索环节的Token消耗。通过上述多管齐下的方式,可以在不显著影响智能体能力的前提下,实现Token消耗的大幅降低,使OpenClaw的长期运行和商业化应用更加经济可行。
2026-03-30 16:17:28
433
原创 人工智能|大模型——部署——单张消费级显卡提升私有化部署大模型推理效率的 7 种方法!
本文介绍了在消费级显卡上提升大模型推理效率的7种方法:1)模型量化降低显存占用;2)采用vLLM框架的PagedAttention技术;3)连续批处理与动态调度;4)多实例并行推理;5)FlashAttention2算子加速;6)异步I/O与多线程处理;7)投机采样技术。这些方法可组合使用,在单张24GB显卡上实现数倍吞吐量提升,支持私有化部署大模型的高效运行。
2026-03-27 10:45:01
405
原创 python3_scrapy_Requests类解析(请求与回应)
Scrapy 的Request类负责定义“去哪里”以及“怎么去”,而Response类负责处理“看到了什么”以及“如何提取”。通过灵活配置Request的参数(如headersmetamethod),可以应对各种复杂的网络请求场景;通过利用Response的解析方法,可以高效地从 HTML 或 JSON 中提取结构化数据。对于轻量级需求,Requests库提供了简洁的同步请求方案,但在构建大规模爬虫系统时,Scrapy 的异步架构和组件化设计具有不可替代的优势。
2026-03-25 22:16:11
389
原创 人工智能|大模型——应用——利用大模型自建Vibe Coding上下文超限的一点思考
问题类型解决方案上下文超限降低 max_tokens 或压缩 input_tokens输入太大代码切片、摘要、RAG 检索参数配置不当动态计算 safe_max_tokens工具设计缺陷引入上下文管理系统、分层推理、用户引导“不要试图让大模型一次看完整个世界,而要教会它如何一步步探索。优秀的 AI 编程助手不是靠堆砌上下文取胜,而是靠精准的上下文选择 + 高效的推理路径规划。你可以借鉴 Cursor 的设计理念,但在实现上可以根据自己的技术栈灵活调整。
2026-03-25 21:55:48
605
原创 人工智能|大模型——模型——Token全网最详细讲解(国家数据局局长刘烈宏将其称为“词元”)
Token(词元)是自然语言处理(NLP)与大语言模型(LLM)领域的核心基础单元,是将连续的自然语言文本映射为离散符号体系的核心载体 —— 其本质是人类语言与模型可处理数学空间的 “翻译层”,也是当前生成式 AI 技术体系、工程实现与商业生态的底层锚点。随着 Transformer 架构的普及与大模型技术的爆发,Token 的角色已从早期 NLP 的预处理中间单元,升级为大模型语义建模、推理计算与商业化计价的核心对象。
2026-03-25 17:39:35
1837
原创 人工智能|大模型——模型——大模型主流架构Encoder-Only、Decoder-Only、Encoder-Decoder
本文分析了三种主流的大语言模型架构:1. Encoder-Only架构(如BERT、GLM4),擅长文本分类等单向任务,能深入理解语义但无法生成文本;2. Decoder-Only架构(如GPT、LLaMA),专长文本生成任务,具有创造性写作优势但需大量训练数据;3. Encoder-Decoder架构(如T5、盘古NLP),适用于机器翻译等序列转换任务,兼具理解与生成能力但计算复杂度高。文章详细阐述了各类架构的特点、适用场景及代表模型,包括国内外典型应用案例,如GLM4在Prompt跟随方面接近GPT4水
2026-03-24 10:37:28
461
原创 人工智能|大模型——部署——RTX 5090上通过vLLM部署0.6B模型显存占用率高?真相在这
在深度学习与大模型部署领域,硬件资源的利用率往往决定了项目的成败。近期,在拥有一张性能强悍的NVIDIA RTX 5090显卡的环境下,利用WSL2虚拟机中的Ubuntu系统及Python虚拟环境部署vLLM框架以运行0.6B参数量的Qwen模型时,遇到了显存占用瞬间"爆满"的极端情况。这一现象看似反常——小模型配大卡理应绰绰有余,实则涉及vLLM的内存管理机制、KV Cache预分配策略以及WSL2的资源调度特性。本文将结合技术原理,深度剖析显存溢出的根本原因,并提供精准的参数调优代码与解决方案。
2026-03-23 19:14:02
472
原创 人工智能|大模型——部署——GLM 4.7(FP 8)私有化部署指南
本文详细介绍了在内网环境中私有化部署大语言模型GLM-4.7的全流程。主要内容包括:1)通过ModelScope获取并传输模型文件;2)在H20服务器上安装/升级GPU驱动和CUDA环境;3)使用vLLM框架部署模型,重点说明公网环境打包迁移到内网的避坑方案;4)提供详细的命令参数说明和常见问题解决方法。该方案适用于对数据安全要求高的政企场景,确保模型、数据和算力完全自主可控,同时解决内网环境部署的技术难点。
2026-03-19 17:28:43
523
原创 人工智能|大模型—— 框架 ——一文详解MCP(从原理到实践)
MCP起源于2024年11月25日Anthropic发布的文章:Introducing the Model Context Protocol。MCP(Model Context Protocol,模型上下文协议)定义了应用程序和 AI 模型之间交换上下文信息的方式。这使得开发者能够以一致的方式将各种数据源、工具和功能连接到 AI 模型(一个中间协议层),就像 USB-C 让不同设备能够通过相同的接口连接一样。MCP的目标是创建一个通用标准,使AI应用程序的开发和集成变得更加简单和统一。
2026-02-11 16:38:27
1303
原创 人工智能|大模型—— 框架 ——RAG从理论到实战
在当今人工智能技术飞速发展的时代,大模型已经成为各行各业关注的焦点。然而,如何将这些通用的大模型应用到我们的具体业务场景中,如何解决大模型在实际应用中的种种局限,这些都是我们需要深入思考的问题。RAG,也就是检索增强生成技术,正是解决这些问题的关键方案之一。 在接下来的分享中,我会从理论基础出发,逐步深入到技术细节和实践案例,帮助大家全面理解RAG,并掌握从0-1搭建RAG系统的核心流程及方法,以为大家在实际工作中应用这一技术提供支持。
2026-02-09 18:03:37
1165
原创 人工智能|大模型—— 开发 ——Agent Skills设计详解
AgentSkills是一种将可复用的AI协作流程封装为标准化任务的机制,通过Markdown文件定义任务名称、描述和执行步骤。OpenCode支持项目本地和全局两种Skill配置路径,采用渐进式三层加载机制(元数据、指令、资源)优化Token消耗。Skill包含核心SKILL.md文件和可选资源(scripts、references、assets),其创建可借助skill-creator元技能完成。这种设计通过模块化、标准化和按需加载,既提升了AI协作效率,又降低了资源消耗,实现了复杂工作流程的确定性执行
2026-01-30 14:48:25
4256
原创 人工智能|大模型——应用——详解ClawdBot(Moltbot)
最近,一个名为 ClawdBot 的项目在技术圈引起了广泛的讨论。许多人称其为“真正能做事的 AI”、“个人 AI 助理的未来形态”。它似乎不仅仅是一个聊天机器人,而是一个能接入我们日常生活、实际操作电脑的强大工具。那么,ClawdBot 究竟是什么?
2026-01-29 17:48:13
1866
原创 人工智能|大模型——部署——vLLM专家并行支持:MoE模型的高效部署方案
vLLM框架针对MoE模型部署提出创新解决方案,通过分组TopK路由算法、令牌重排对齐机制和混合精度专家计算三大核心技术,有效解决了计算资源碎片化、跨设备通信瓶颈和内存管理复杂性等核心挑战。该系统支持动态专家选择策略和多模态处理,在70B参数的MoE模型上实现75%以上的GPU利用率,显存占用降低40%,吞吐量较传统方案提升3倍。未来将发展自适应专家并行和异构专家部署等功能,为万亿参数模型提供高效推理支持。最佳实践包括模型权重优化、系统参数配置和性能指标监控等关键步骤。
2026-01-28 15:26:08
996
原创 人工智能|大模型 —— 开发 —— opencode与agent skills的安装与使用
本文介绍了AI编程代理OpenCode的安装配置与使用指南。主要内容包括:1) 常用Skill下载源和配置方法(手动下载/市场安装);2) OpenCode的安装方式(一键脚本/包管理器/桌面应用);3) 基础配置步骤(连接AI模型、项目初始化);4) 基本用法(切换代理、引用文件提问)。OpenCode作为开源AI编程助手,支持多模型接入,提供终端和图形界面两种操作方式,能帮助开发者更高效地理解和修改代码。
2026-01-27 14:35:01
5076
原创 人工智能|大模型——量化——Ollama模型量化参数设置全解析如何避免性能下降与显存溢出
在当今大语言模型(LLM)快速发展的时代,Ollama作为一款优秀的本地模型运行框架,为用户提供了便捷的模型部署和运行能力。然而,随着模型规模的不断增大,如何在有限的硬件资源下高效运行这些模型成为了一个重要问题。模型量化技术应运而生,它通过降低模型权重的数值精度来减少内存占用和提升推理速度。但量化并非简单的参数调整,不当的设置可能导致严重的性能下降甚至显存溢出问题。
2026-01-22 09:53:39
1719
原创 人工智能|大模型 —— 量化 —— 一文搞懂大模型量化技术:GGUF、GPTQ、AWQ
本文系统探讨了大模型量化技术的理论基础与实现方法。首先介绍了对称量化(absmax方法)和非对称量化(零点量化)的基本原理,分析了量化误差的产生机制。随后重点讨论了GGUF分组量化方法,通过具体示例展示了4位量化过程。在优化方法方面,详细阐述了GPTQ的后训练量化技术,包括其Hessian-based误差补偿机制和LazyBatch-Updates加速策略。最后介绍了AWQ方法,该方法通过激活感知选择1%关键权重进行保护,结合缩放因子优化显著降低了量化误差。实验结果表明,AWQ与GPTQ相结合能进一步提升量
2026-01-21 15:13:38
844
原创 计算机硬件|计算机组成——计算机硬件的组成与协作
本文系统介绍了计算机硬件组成及协作机制。硬件主要包括CPU、存储系统、外部设备和互连总线四大类:CPU负责指令执行与协调;存储系统包含内存和固态/机械硬盘;外部设备涵盖各类I/O设备;总线实现组件间通信。文章详细解析了各部件功能,并通过文件读取排序和网页渲染两个实际案例,展示了硬件协作流程。最后指出性能瓶颈主要来自访问模式和延迟,建议编写程序时注意局部性、减少拷贝、善用DMA等技术优化硬件利用率。理解硬件协作原理有助于性能优化和架构设计。
2025-12-24 17:13:49
1316
原创 人工智能|大模型 —— 部署 ——Ollama 安装部署教程,一键搭建本地大模型
Ollama是一款支持在Windows、Linux和MacOS上本地运行大语言模型的工具,提供1700+预训练模型和自定义模型功能。安装方式包括直接下载安装包(Windows/Mac)或脚本/二进制安装(Linux)。用户可通过命令行管理模型,支持参数调整和多GPU加速。文章详细介绍了各平台安装步骤、环境变量配置、模型路径修改方法,以及如何从Huggingface导入模型。最新版本0.3.13新增支持直接从Huggingface Hub拉取GGUF量化模型的功能,并提供了具体操作命令示例。
2025-12-05 16:48:27
1246
原创 环境配置|GPUStack安装——GPUStack安装与配置指南
GPUStack是一个开源的GPU集群管理工具,支持跨平台部署AI模型。它兼容多种硬件架构(NVIDIA CUDA/AMD ROCm/华为Ascend),提供分布式推理、用户管理、监控等功能,并通过Docker容器化部署。安装需预装Python 3.8+和Docker,支持Linux/macOS/Windows系统。配置完成后,可通过Web界面(默认8080端口)管理AI模型服务,集成vLLM等推理后端,实现高效的GPU资源调度和模型部署。
2025-12-05 16:19:16
1231
原创 人工智能|大模型 —— 部署 —— GPUStack为大模型而生的开源GPU集群管理器
摘要:Seal团队发布开源GPU集群管理器GPUStack,支持企业快速部署私有大型语言模型。该平台可统一管理NVIDIA、Intel、AMD等异构GPU资源,提供模型部署、OpenAI兼容API、资源监控等功能。通过自动化调度算法,GPUStack能根据资源情况优化模型运行方式,支持从HuggingFace部署GGUF格式模型。平台还提供RBAC访问控制、性能监控等企业级功能,适用于边缘计算、数据中心等多种场景。安装过程支持Linux、macOS和Windows系统,可构建混合集群。
2025-11-07 16:48:28
1462
原创 编程语言|前端开发——WebAssembly 和 JavaScript 该怎么选?
本文对比了JavaScript与WebAssembly在浏览器运行时的性能表现。测试结果显示:在资源体积方面,JavaScript原始体积为1.8KB,优化后的WebAssembly为4.6KB;初始化时间上,JavaScript仅需34ms,而WebAssembly需要528ms;执行CPU密集型任务时,JavaScript耗时126ms,WebAssembly仅需28ms。结论是:JavaScript在加载速度和体积上更优,适合快速执行的轻量任务;而WebAssembly在执行效率上优势明显,更适合计算
2025-11-06 19:53:43
1224
原创 人工智能|强化学习——基于人类反馈的强化学习(RLHF)深度解析
基于人类反馈的强化学习(RLHF)是训练先进AI系统的核心技术,使ChatGPT等大语言模型能更好地对齐人类价值观。RLHF通过三阶段流程实现:监督微调初步训练模型,奖励模型学习人类偏好,强化学习优化模型输出。奖励模型是关键组件,通过偏好学习算法将人类判断转化为评分信号。尽管面临奖励欺骗、反馈偏差等挑战,RLHF正推动AI从单纯追求性能转向安全性和人类价值观对齐。随着DPO、RLAIF等新方法出现,RLHF持续推动AI系统向更有用、更安全的方向发展。
2025-10-15 21:27:46
1667
2
原创 在线机考|2025年华为暑期实习&春招&秋招编程题(最新)——第1题_物流运输
摘要:题目描述了一个树形结构的快递配送问题,需要计算完成所有快递任务的总路径长度。通过BFS建立树的拓扑序,后序遍历统计每个节点的寄件和收件数量,最后累加所有边权值乘以对应任务数。算法使用邻接表存储树结构,时间复杂度为O(N+M)。代码提供了C++、Python和Java三种实现,核心思路相似。
2025-06-12 11:53:06
833
原创 在线机考|2025年华为暑期实习&春招&秋招编程题(最新)——第2题_网络整改
题目要求计算从树中移除最少节点数,使剩余节点构成一棵所有叶节点深度相同的树。给定树结构,程序通过动态规划自底向上计算每个子树在不同目标叶深度时的最大保留节点数。核心思想是遍历所有可能的叶深度(0到最大深度),对于每个深度,验证保留节点数,最终输出总节点数减去最大保留节点数。 摘要(150字):本文解决树结构调整问题,要求移除最少节点使剩余树的所有叶节点深度相同。采用动态规划方法,预处理节点深度和子树结构,遍历每个可能的叶深度,计算相应最大保留节点数。程序通过后序遍历和分层处理优化计算,最终输出需要移除的最小
2025-06-12 11:09:32
692
原创 科研学习|科研软件——激活后的Origin导出图时突然出现了demo水印
摘要 解决导出图形带"demo"水印问题有两种方法:1) 右击软件图标选择"以管理员身份运行";2) 进入软件安装目录,双击运行Origin64.exe文件。这两种方式都可以去除导出图形中的演示版水印标记,确保输出干净的专业图表。
2025-06-01 22:42:15
8051
1
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第3题_个性化歌单推荐系统_300分(十一)
假设你是音乐服务的开发者,为了提高用户体验需要解决推荐歌单的同质化问题,保证推荐给用户的所有歌单不包含相同歌曲的。给定一个包含N个歌单和M条歌单重复记录,每个歌单用一个从1到N的整数编号,歌单重复记录包含两个歌单的ID,表示两个歌单有相同的歌曲。你的任务是对歌单进行合并,找出合并后的最小歌单数量,合并的歌单中不能有相同的歌曲。
2025-01-07 00:15:00
1034
2
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第2题_公司园区里的建筑群_200分(十)
某公司基地园区很大,里面有N个建筑,依次编号为1到N,通过M条路将这些建筑连接在一起,这N个建筑根据之间的距离,被分为不同的建筑群。云小核喜欢饭后散步,并用步数计算了每条路的长度。经过一段时间的散步,云小核发现了一个规律,两个建筑群间最近的两个建筑之间,步数大于K步。两个建筑群之间,可能没有路。云小核把每条路的步数给了你,请你计算园区里有多少个建筑群?
2025-01-06 00:15:00
676
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第1题_最强大脑游戏_100分(九)
某最强大脑游戏要求:选手在一个整数序列中(整数取值为[1, 10]),自行去掉K个整数,得到一个新的整数序列,-使得整数序列左到右拼接起来后,得到的整数值最大。那么假设你是优秀的选手,在给定这个整数序列之后,你能够得到的最大整数值是多少?
2025-01-05 00:15:00
674
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第3题_PCB印刷电路板布线_300分(八)
在PCB印刷电路板设计中,器件之间的连线需要避免线路的阻抗值增大、而且赛件之间还有别的器件和别的干扰源,在布线时我们希望受到的干扰尽量小。现将电路板简化成一个M×N的矩阵,每个位置(单元格)的值表示其源干扰度。如果单元格的值为0,表示此位置没有干扰源;如果单元格的值为非0,则表示此位置是干扰源,其值为源干扰度。连线经过干扰源或干扰源附近会增加连线的总干扰度。位置A[x, y]的干扰源的源干扰度为d(d>0),则连线的干扰度计算如下:1、若连线经过位置A[x, y],则其总干扰度会增加d;
2025-01-04 00:15:00
934
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第1题_拔河比赛队员选拔_100分(八)
某团队近期需要组织一支队伍参加拔河比赛,团队共有队员n人,比赛队员人数要求为m人,n>m,n个队员按编号,1到n的顺序参加k轮力量测试,每轮的测试成绩用正整数表示。根据n个队员的力量测试成绩选择比赛队员m人,先选择k轮测试中最好成绩最大的队员,若有多人的最好成绩相等,则优先选择其中第二好成绩最大的队员,依次类推,最后若还有相等的情况,则优先选择编号较小的队员。每个人只能被选择一次。
2025-01-03 00:15:00
511
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第2题_公司班车上车点规划_200分(七)
某公司基地搬迁到新地点之后,新规划了一条班车路线,在这条路线上会经过N个小区,计划在这些小区中挑选出M个作为上车点,小区的位置可以用一维坐标上的点来表示,小区到上车点的距离为两个坐标点差值的绝对值。现在给定N个小区的位置,即一维坐标上的整数点:x1、x2、…、xN $ ,我们希望所有小区到最近上车点的距离总和尽可能小,请计算这个最大值能够是多少?当该小区被作为上车点,该小区到上车点的距离为0。
2025-01-02 00:15:00
438
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第2题_微服务发布时长_200分(六)
部署发布时,通常需要部署所有的现网局点。局点的部署过程存在依赖关系,因为某些局点需要等其他的局点部署完成后,才能开始部署。另外这些局点由于网络或地理位置的原因,所花费的部署时间有可能是不同的。给定一个大小为n的数组region存储局点之间的部署依赖关系,其中region[i]是第i个局点的依赖局点,0
2025-01-01 17:38:04
693
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——第3题_订单取餐顺序_300分(五)
肯德基店销售炸鸡、薯条、可乐三种实物,准备三种食物的速度一样,且三种食物同时制作;三种食物同时制作,按订单顺序进行分发食物。现在有N个订单,每个订单用连续三位数组元素表示,数组的元素是对应食物的份数。N最大为100万,每个订单里每份食物最多100万份。请计算N个订单的取餐顺序,如果多个订单可以同时取餐,按订单号从小到大排序。
2024-12-31 00:15:00
781
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——中等、较难和困难题目Python3答案(三)
【代码】牛客网|华为在线编程(最新)——中等、较难和困难题目Python3答案(三)
2024-12-29 00:15:00
356
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——中等、较难和困难题目Python3答案(二)
【代码】牛客网|华为在线编程(最新)——中等、较难和困难题目Python3答案(二)
2024-12-27 14:59:41
329
原创 在线机考|2024华为实习&秋招&春招编程题(最新)——中等、较难和困难题目Python3答案(一)
【代码】牛客网|华为在线编程(最新)——中等、较难和困难题目Python3答案(一)
2024-12-27 14:35:19
899
1
一个能够自动将用户的自然语言问题转换成 SQL 查询的智能问答系统
2024-11-15
基于Python的开源威胁情报搜集与分析程序
2024-12-01
人工智能-法律问答-基于知识图谱的林业法律法规问答
2025-01-11
人工智能-迁移学习-基于知识库的问答系统 其中使用带注意力机制的对抗迁移学习做中文命名实体识别,使用BERT模型做句子相似度分析
2025-01-01
人工智能-强化学习-基于强化学习的空战对抗
2025-01-01
人工智能-对比学习-基于iris数据集进行四种机器学习算法(决策树、朴素贝叶斯、随机森林、支持向量机SVM
2024-12-17
人工智能-预训练大模型-基于预训练模型 BERT 的阅读理解
2024-12-12
人工智能-预训练大模型-简洁易用版TinyBert:基于Bert进行知识蒸馏的预训练语言模型
2024-12-12
人工智能-开源情报-基于开源威胁情报AlienVault,排查IP地址及域名的恶意性
2024-12-01
人工智能-检索增强生成-基于BM25、BGE的检索增强生成RAG示例
2024-11-19
人工智能-检索增强生成-利用开源大模型,通过RAG(检索增强生成)技术,实现基于企业内部知识图谱的,可内网运行的大模型智能客服
2024-11-19
人工智能-大语言模型-基于ChatGLM-6B + LoRA的Fintune方案
2024-11-13
人工智能-大语言模型-基于人工智能标记语言 (AIML)和开放域问答(WebQA)的深度智能对话模型
2024-11-05
人工智能-大语言模型-基于企业私有知识库的LLM大语言模型的智能客服机器人问答系统,支持私有化部署
2024-11-05
人工智能-大语言模型-基于大型语言模型的评论回复机器人
2024-11-05
人工智能-扩散模型-基于扩散模型stable diffusion的T恤图案设计和基于HR-VITON的虚拟试衣项目
2024-10-28
人工智能-机器学习-基于各种机器学习和深度学习的中文微博情感分析
2024-10-24
人工智能-大模型-基于DPO算法微调语言大模型,简单好上手
2024-10-21
大型语言模型统一使用接口工具
2025-06-01
基于大语言模型(LLM)和多智能体(Multi-Agent)的AI写小说写作程序
2025-11-06
An agentic skills framework & software development methodology that works.zip
2026-01-29
SecGPT网络安全大模型
2025-11-16
基于大型语言模型的评论回复机器人
2025-11-06
人工智能-计算机视觉-这是一个yolov8-pytorch的仓库,可以用于训练自己的数据集
2025-06-02
人工智能-鸿蒙开发-阅读鸿蒙版仓库
2025-04-28
Origin中【CorrelationPlot】插件资源,下载后直接拖拽到右侧+app处即可安装
2025-04-16
人工智能-知识图谱-基于领域本体和大语言模型的知识图谱自动化构建工具
2025-04-16
人工智能-大语言模型-基于deepseek 的OCR
2025-02-15
人工智能-大语言模型-基于DeepSeek开发的Intellj Idea插件
2025-02-15
人工智能-大语言模型-基于200万条医疗数据对deepseek-r1进行微调且简单部署
2025-02-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅