自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(302)
  • 收藏
  • 关注

原创 LangChain ShellTool 深度解析:从基础使用到安全增强(限制shell的执行权限)

本文全面解析了LangChain生态中的ShellTool工具,从基础使用到Agent集成再到安全增强。ShellTool作为连接大语言模型与操作系统的桥梁,允许执行shell命令进行系统交互。文章首先介绍基础用法,然后展示如何集成到Agent中处理复杂任务,最后重点讲解安全增强方案,通过白名单、黑名单和目录限制等机制构建SafeShellTool。最佳实践部分强调安全使用建议、适用场景和性能考量。ShellTool为AI应用提供了强大的系统交互能力,但需谨慎使用以确保安全。

2026-03-22 12:24:18 38

原创 全网都在抢的「AI龙虾」大乱斗!4家神仙打架,普通人只能看馋

有Mac+抢到邀请 → 玩腾讯Q-Claw想简单无脑上手 → 冲智谱AutoClaw爱摸鱼想云端养 → 选字节Coze小米17系列+极客身份 → 等小米MiClaw邀请总之,现在的AI龙虾圈就是:大厂内卷、用户抢码、普通人坐等公测~你抢到内测资格了吗?评论区聊聊你最想养哪只龙虾!

2026-03-17 15:53:27 229

原创 AI圈炸了!全民养龙虾、Siri换芯、国产大模型爆发|3.8-3.9热点全梳理

AI从"聊天"走向"行动":智能体Agent成为新入口本地+隐私成标配:企业与个人更看重数据安全国产技术全线提速:大模型、端侧、硬件同步突破机会与风险并存:装机热背后,安全与合规不能少一句话预判:人人拥有专属AI数字员工的时代,真的来了。图 | AI时代总结Part.07 互动与关注。

2026-03-09 19:19:40 386

原创 爆火的“龙虾AI“OpenClaw:从程序员玩具到全网顶流,它的故事藏着AI的未来

2026年开年,科技圈被一只"龙虾"霸屏了。它不是餐桌上的麻辣小龙虾,也不是水族馆里的观赏生物,而是一个名叫OpenClaw的开源AI项目。粉丝们自称"甲壳教徒",喊着"记忆是神圣的"口号,疯狂"养虾";工信部紧急发布安全警告,提醒大家警惕它的潜在风险;它从一个程序员的业余玩具,短短3个月登顶GitHub热榜,经历两次改名风波,却越挫越火。今天,我们就来扒一扒OpenClaw的前世今生,聊聊它背后那些让人啼笑皆非的趣闻,以及牵动全网的热点新闻,读懂这只"龙虾"为何能掀起全球AI狂潮。

2026-03-08 17:06:53 876

原创 玩转大语言模型——在Windows环境下本地部署openclaw

安装openclaw需要用到linux环境,在windows环境中可以使用WSL实现,WSL的安装过程可以参照以下博客,本文不再赘述。

2026-03-07 19:11:37 114

原创 打破信息差——2月28日AI全景日报

中国AI调用量首超美国,国产模型占据全球调用量TOP5中的四席。

2026-03-01 14:14:42 672

原创 2月26日AI全景日报:国产AI历史性反超、全球算力狂飙,一个时代正式开启

2026年2月26日成为AI发展里程碑:中国AI模型调用量首次超越美国,全球前五模型中国占四席;可灵3.0登顶文生视频榜首,华为云码道上线,国产AI实现全维度突破。英伟达财报创纪录,Meta与AMD签600亿美元芯片订单,全球算力竞赛白热化。AI应用全面爆发,从消费到产业实现规模化落地,同时全球监管收紧,安全伦理成为焦点。这一天标志着中国AI从追赶到领跑、行业从技术竞赛转向应用落地、发展模式从野蛮生长转向规范合规三大历史性转折。

2026-02-27 12:21:59 520

原创 2月25日AI全景日报:国产模型狂飙、全球算力豪赌、安全与监管齐升级

2026年2月25日,不是普通的一天。它是国产AI全球化的里程碑,是全球算力军备赛的宣言书,是AI安全与监管的分水岭。AI不再是概念,而是生意、基础设施、国家竞争力。对于企业与个人,跟上AI、用好AI,就是抓住这个时代的最大机遇。关注我们,每日获取最深度、最完整、最有价值的AI行业日报,不错过每一个风口。

2026-02-26 12:54:27 353

原创 打破信息差——2月24日AI全景日报:巨头博弈、技术狂飙、政策加码,全球AI赛道迎来历史

海南省发布《“人工智能+”行动方案(2026-2028年)》,聚焦商业航天、防灾减灾等场景,打造特色AI产业生态;国内三部门明确AI算力成本纳入研发费用加计扣除,税收优惠助力企业减负。2026年2月24日,是AI行业平凡却又关键的一天。这里有巨头的兴衰、技术的突破、地缘的博弈,更有产业的希望。AI不再是遥远的未来,而是正在发生的现实。对于每一个人、每一家企业而言,拥抱AI、跟上节奏,就是抓住这个时代的最大机遇。关注我们,每日获取最深度、最完整、最有价值的AI行业日报。

2026-02-25 07:39:10 630

原创 打破信息差——2026年2月23日AI全景日报

2月23日的两大事件,彻底改写了国内大模型赛道的叙事逻辑: 过去行业比拼参数大小、训练速度、论文数量;现在行业比拼收入规模、付费用户、全球化能力、企业服务渗透率。商业化兑现,成为2026年大模型赛道唯一的核心考核标准。2026年2月23日,不是一个普通的日子。它是国产大模型商业化的里程碑,是AI民生应用的起点,是具身智能爆发的信号,也是全球AI格局重构的开始。对于普通人、创业者、企业决策者而言: AI不再是遥远的概念,而是必须抓住的机遇。2026年,所有行业都值得用AI重做一遍。

2026-02-24 11:23:17 777

原创 打破信息差——2月22日AI全景:算力理性、视频革命、安全合规,行业正式进入下半场

AI行业进入理性深耕阶段:效率、安全、合规成新主线 2026年2月22日,全球AI行业迎来关键转折。OpenAI大幅下调算力预算,转向效率优先;Sora 2.0突破10分钟视频生成,多模态技术进入实用化阶段;李飞飞团队获10亿融资,3D空间AI加速落地。同时,AI安全风险凸显,黑客利用AI攻破600+防火墙,版权争议升级,监管趋严。行业从野蛮生长转向理性发展,算力精准投入、技术商业化落地、安全合规治理成为核心趋势。AI正从实验室走向社会基础设施,效率与风险管控并重。

2026-02-23 10:52:59 878

原创 打破信息差——2月21日AI全域热点全复盘

2026年2月21日成为全球AI发展里程碑,行业呈现技术突破、资本重构与产业落地的多维爆发。技术端,谷歌Gemini 3.1 Pro推理性能翻倍,OpenAI发布GPT-5.3并获千亿融资,模型竞赛转向实用化;资本端,OpenAI估值逼近万亿美元,算力投资趋于理性,国产AI港股单日暴涨42%。中国实现科研与商用双突破,罕见病诊断系统登顶《自然》,智谱AI付费套餐售罄,自主生态加速成型。政策推动AI深度融入实体经济,企业进入"强制AI化"阶段。行业整体告别野蛮生长,呈现专业化、理性化、主权

2026-02-22 10:15:03 621

原创 打破信息差——2026年2月20日AI技术大爆发全解析

2026年2月19-20日,全球AI领域迎来爆发性突破。中国在医疗AI和芯片研发取得重大成果:DeepRare罕见病诊断系统登顶《Nature》,清华推出全球首款量产级全柔性AI芯片FLEXI。OpenAI、xAI等企业密集发布GPT-5.2、Grok4.2等新一代AI模型,性能显著提升。全球算力军备赛升级,英伟达、Meta等企业加速布局。资本市场火热,OpenAI融资超千亿美元,国内月之暗面获7亿美元投资。AI应用已渗透至机器人、可穿戴设备、游戏开发等多个领域,产业化进程加速。这48小时标志着AI技术从实

2026-02-20 09:11:45 1512

原创 技术速递——通义千问 3.5 深度横评:纸面超越 GPT‑5.2,实测差距在哪?

阿里通义千问Qwen3.5-Plus技术测试报告显示,该模型采用稀疏MoE、混合注意力和原生多模态三大创新架构,397B总参数仅激活17B,实现高效部署。实测验证其性能超越GPT-5.2等闭源模型,256K长文本处理速度提升19倍,多模态识别准确率达98%,Agent任务完成率100%,且百万Token成本仅0.8元。报告证实Qwen3.5在架构效率、多模态融合和场景落地方面表现优异,为中小企业提供了高性能、低成本的AI解决方案,推动开源大模型进入工业化应用阶段。

2026-02-20 08:49:21 1892

原创 打破信息差——2026年2月19日AI热点新闻速览

医疗AI行业呈现巨头布局入口、初创深耕垂类的分化格局。OpenAI推出ChatGPTHealth并收购数据公司,Anthropic主攻B端医疗流程,中国百川智能将医疗大模型幻觉率降至2.6%。央视春晚机器人表演引发外媒热议,彰显中国AI与制造业融合成果。国际方面,高通投资印度AI基金1.5亿美元,阿达尼集团计划千亿美元AI数据中心建设。美国财政部发布AI金融安全资源,Meta推出反AI勒索协议。行业趋势显示,医疗AI正从技术竞赛转向价值验证,中美应用路径差异明显,全球关注点转向AI实际效益。

2026-02-19 19:27:07 1362

原创 大模型原理剖析——多头并行 + 潜变量协同:原理、应用与部署优化

“多头并行+潜变量协同”是深度学习的核心架构,通过多子空间并行挖掘差异化特征(如LLM的语法/语义关联、ASR的频谱/时序依赖),并整合潜变量突破表达瓶颈。其优势在于: 高效并行:适配GPU/CPU硬件加速,显存占用降低50%,推理速度提升2-3倍; 精准建模:LLM生成逻辑性提升30%,ASR在噪声环境错误率降低10%-20%; 灵活部署:支持轻量模型(h=8-16,单卡部署)到大规模模型(h=32-64,多卡并行),平衡效果与成本。

2025-12-25 11:09:39 653

原创 大模型原理剖析——矩阵吸收优化:LLM推理加速的核心原理与实践

矩阵吸收优化是一种针对Transformer自注意力机制的无损推理加速技术。其核心思想是利用矩阵乘法结合律和模型参数的固定性,通过预计算合并查询和键的投影矩阵W_qk=W_q^U·(W_k^U)^T,将标准自注意力计算中的3次矩阵乘法减少为2次。该技术可降低30%-40%的计算量,实现1.5-2倍推理加速,尤其适用于长序列和高并发场景。优势包括无精度损失、实现简单、兼容其他优化技术,但仅适用于推理阶段。工程实现仅需预计算W_qk并调整计算顺序,是LLM推理优化的有效手段。

2025-12-25 10:08:39 895

原创 大模型原理剖析——解耦RoPE(旋转位置编码)的基本原理

本文介绍了改进传统旋转位置编码(RoPE)的解耦RoPE(DRoPE)方法。传统RoPE将位置与维度直接耦合,导致长序列场景下高频维度饱和、低频维度区分度不足的问题。解耦RoPE通过引入独立的缩放因子,拆分位置与维度的耦合关系,使不同维度的位置编码敏感度可独立调节。分组解耦形式分别设置高低频维度的缩放因子,平衡长短序列表现。代码实现显示该方法仅需轻微修改传统RoPE计算逻辑,不增加额外开销。解耦RoPE显著提升了模型对长序列的适应性,可广泛应用于长文本建模和大模型上下文扩展场景。

2025-12-23 13:59:43 1025

原创 大模型原理剖析——突破LLM效率瓶颈:多标记预测(MTP)技术深度解析与实战

多标记预测(MTP)技术通过单次前向传播同时预测多个后续词元,显著提升大语言模型的生成效率。相比传统逐词元生成方式,MTP在训练阶段增加信号密度,推理阶段结合推测解码可实现1.8-2.6倍加速。DeepSeek提出的链式MTP架构通过依赖前序表征保证文本连贯性。实战示例展示了PyTorch实现框架,包含共享编码器和多头预测结构。MTP在长文本生成等场景优势明显,是优化LLM性能的重要方向。

2025-12-23 11:05:02 915

原创 大模型原理剖析——多头潜在注意力 (MLA) 详解

多头潜在注意力(MLA)是DeepSeek团队提出的创新机制,通过低秩压缩键值缓存至潜在空间,显著降低内存占用(减少53%)和计算开销(延迟降低53%)。MLA采用解耦RoPE、矩阵吸收优化等技术,在保持模型性能的同时支持长文本处理(32K token)。相比传统注意力机制,MLA具有内存效率高(缓存仅为MHA的1/8)、计算速度快等优势,特别适合大规模模型部署和多模态融合应用。该技术为AI系统的高效化开辟了新路径,有望成为下一代大模型的标准组件。

2025-12-22 20:52:28 1040

原创 大模型原理剖析——DeepSeek-V3深度解析:671B参数MoE大模型的技术突破与实践

DeepSeek-V3通过“MoE架构+MLA注意力+负载均衡+混合精度训练+MTP生成”的技术组合,在671B参数规模下实现了“能力强、速度快、成本低”的平衡;而DeepSeek-R1则填补了“深度逻辑分析”的场景空白。二者形成互补,覆盖了通用任务与专业推理的需求。

2025-12-22 20:09:41 1024

原创 大模型原理剖析——拆解预训练、微调、奖励建模与强化学习四阶段(以ChatGPT构建流程为例)

本文解析了ChatGPT四阶段构建流程:1)自监督预训练阶段通过海量文本学习语言规律;2)有监督微调阶段用标注指令数据训练模型理解人类需求;3)奖励建模阶段构建文本质量评估体系;4)强化学习阶段基于反馈优化模型输出。每个阶段在数据规模、算法类型和计算资源上都有特定要求,通过层层递进的训练最终实现模型的智能表现。该流程体现了从基础能力奠基到精细化优化的完整技术路径。

2025-12-21 17:14:35 1006

原创 大模型原理剖析——从技术特性、底层架构到落地逻辑的全维度解析

大模型的核心能力源于超大规模参数(百亿级以上)与自监督预训练(如掩码语言建模、自回归预测),结合万亿级多模态数据训练,实现通用语义理解。其独特涌现能力(如思维链推理)在参数突破阈值后显现。基于Transformer架构的注意力机制和残差连接支撑了模型的扩展性。行业现状呈现技术同质化(Transformer主导)与头部垄断(高算力/数据壁垒)。落地应用需结合场景特性,如文本生成(自回归预测)、智能客服(检索增强生成RAG)、多模态任务(跨模态对齐)等。大模型本质是数据与规模驱动的语义引擎,技术底层逻辑

2025-12-21 10:24:03 759

原创 探索大语言模型(LLM):MarkDown格式文档的结构化提取全流程

在做RAG工作中,数据处理的好坏往往决定着RAG效果的好坏。经过实际的测试,MarkDown格式的文本相较docx、pdf等格式无疑是最合适的,本篇将详细介绍MarkDown格式文档的结构化提取的全流程。

2025-10-24 12:48:31 1042

原创 大模型面试题剖析:LoRA高效微调的核心原理

大型语言模型(LLM)参数规模极大,全参数微调存在诸多难题:- **成本高昂**:需存储和更新所有模型参数副本,训练开销大。- **部署困难**:每个任务都要存储完整模型副本,占用大量存储空间。- **资源需求高**:对计算资源和GPU内存要求严苛,普通设备难以支撑。

2025-10-14 21:00:00 1658

原创 大模型面试题剖析:全参微调与LoRA的资源占用解析

在深度学习模型的全参微调过程中,资源占用主要来自模型权重参数、优化器状态向量和梯度这几个关键部分,我们来详细看看它们的计算公式和含义。

2025-10-14 21:00:00 598

原创 探索大语言模型(LLM): 大模型应用与对应的硬件选型一览表

不同系列的显卡,适合的人群和做的事不一样,看下面的表就清楚啦

2025-10-13 14:31:57 1511

原创 大模型面试题剖析:大模型训练关键技术解析(从 RLHF 、RLAIH、DPO到 SFT)

在大模型的迭代优化过程中,如何让模型输出更符合人类预期、更适配特定任务,一直是技术研发的核心方向。本文将围绕人类反馈的强化学习(RLHF)、AI 反馈强化学习(RLAIH)、直接偏好优化(DPO)以及监督式微调(SFT)等关键技术展开,深入解析它们的核心原理、实施流程与技术特点,帮助读者理清大模型训练技术的脉络。

2025-10-13 14:10:59 660

原创 探索大语言模型(LLM):大模型微调方式全解析

在大模型落地实践中,微调(Fine-tuning)是连接通用预训练能力与特定任务需求的关键环节。通过微调,我们能让在海量数据上预训练的模型 “适配” 具体业务场景,比如客服对话、代码生成、医学文献分析等。本文将系统梳理六种主流微调方式,从核心原理、参数调整逻辑到适用场景,帮你快速掌握不同方案的选型思路。

2025-10-06 18:10:36 907 4

原创 大模型面试题剖析:深入解析 Transformer 与 MoE 架构

在人工智能大模型飞速发展的今天,Transformer 架构无疑是撑起整个领域的 “基石”,而 MoE(Mixture of Experts)架构则凭借其独特的 “稀疏激活” 思路,成为突破大模型参数规模与计算效率瓶颈的 “关键引擎”。无论是 ChatGPT 背后的技术支撑,还是自动驾驶中的多模态感知,这两种架构都扮演着不可或缺的角色。本文将从核心原理、大模型设计逻辑和关键差异三个维度,带大家全面读懂 Transformer 与 MoE 架构。

2025-10-06 16:21:42 915

原创 探索大语言模型(LLM):一文读懂通用大模型的定义、特点与分类

在人工智能技术飞速发展的当下,通用大模型无疑是最受关注的领域之一。它凭借强大的能力打破了传统 AI 模型的局限,为各行业的智能化升级提供了全新可能。本文将从通用大模型的定义出发,深入剖析其核心特点,并详细梳理常见的分类方式,带大家全面认识这一前沿技术。

2025-10-06 15:48:57 1096

原创 大模型面试题剖析:模型微调中冷启动与热启动的概念、阶段与实例解析

在人工智能模型的开发流程中,微调是让预训练模型适配特定任务、提升性能的关键环节。而在微调的启动方式上,“冷启动” 和 “热启动” 是两个高频出现但容易混淆的概念。很多刚接触模型微调的开发者,常会疑惑二者的核心区别的适用场景。今天这篇博客,就用通俗易懂的语言拆解这两个概念,结合实际微调案例,帮你搞懂什么时候该用冷启动,什么时候该选热启动。

2025-10-03 17:41:49 827

原创 探索大语言模型(LLM):Windows系统与Linux系统下的Ollama高级配置(修改模型地址、Service服务以及多卡均衡调用)

在之前的探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)中,已经介绍了ollama在Windows环境下和Linux环境下的安装,在本篇中将重点介绍Ollama的常用配置

2025-09-16 09:31:41 1452

原创 大模型面试题剖析:RAG中的文本分割策略

在大语言模型(LLM)驱动的应用场景中,检索增强生成(RAG)技术愈发关键。而文本分割,作为RAG流程里的核心环节,直接影响着整个系统的性能与效果。接下来,我们将从文本分割的重要性、在RAG中的位置、不同分割方法以及实践建议等方面,进行全面且深入的剖析。

2025-09-15 15:00:16 1115

原创 探索大语言模型(LLM):Open-WebUI的安装

Open-WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs),成为私有化部署的便捷工具,本文将介绍如何部署并使用Open-WebUI。

2025-09-11 17:30:31 658 1

原创 探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)

Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用,能够在同等配置下跑更大的模型,是非常适合个人学习使用的平台。本篇将详细介绍Ollama在各种平台上的详细安装过程以及应用。

2025-09-11 16:27:20 1760

原创 大模型面试题剖析:大模型微调数据集构建

在大模型技术栈中,微调(Fine - tuning)是使预训练大模型适配特定领域任务的核心手段,而微调数据集作为模型训练的“燃料”,其构建的科学性与工程化程度直接决定微调效果上限。本文从流程、规模、工业实现、强化学习适配等维度,系统解析大模型微调数据集的构建技术。

2025-09-04 10:03:21 630

原创 大模型面试题剖析:大模型多模态微调技术全解析

在人工智能领域,大模型多模态微调是让模型具备跨模态理解与生成能力的关键技术。它能使模型更好地适配特定场景,在视觉问答、医疗影像诊断等诸多领域发挥重要作用。下面将从多模态大模型结构、微调方法、数据准备、应用场景以及面临的挑战等方面展开详细解析。

2025-09-03 11:44:01 837

原创 大模型面试题剖析:大模型多机多卡微调全解析

在大模型时代,模型参数规模呈爆炸式增长,单卡训练已难以满足需求,多机多卡微调成为大模型训练与优化的关键技术。本文将从多机多卡微调的核心原理、实现方式、工程实践要点以及面临的挑战等方面展开详细介绍。

2025-09-02 17:26:20 540

原创 大模型面试题剖析:全量微调与 LoRA 微调

在当今的人工智能领域,大模型已成为推动众多应用发展的核心力量。然而,预训练的通用大模型往往无法直接完美适配各种特定的下游任务。为了让模型在特定任务中展现出卓越性能,微调技术应运而生。本文将深入探讨两种重要的微调方式:模型全量微调与 LoRA(Low-Rank Adaptation)高效微调,详细阐述它们的原理、优势以及在实际应用中的表现。

2025-09-01 16:40:31 757

使用opencv-python实现的基于模板匹配的银行卡号识别项目

使用opencv-python实现的基于模板匹配的银行卡号识别项目,有详细的代码解释过程

2023-01-04

柠檬质量分类数据集(Lemon Quality)

可以用于区分好柠檬和坏柠檬的数据集,其中包含好柠檬、坏柠檬、拍照背景图片,可以用于区分柠檬好坏

2022-11-06

车标分类数据集(car logo datasets)

用于图像分类的车标分类数据集

2022-11-06

用于狗狗表情识别的数据集

一个用于狗狗表情识别的数据集,包含愤怒,开心,放松,难过四种标签,可以用来训练用于识别狗狗表情的深度学习模型,适用于深度学习或图像处理的学习者

2022-11-04

基于tensorflow的手语检测

1. 使用的模型是centernet 2. 使用predict.py可以进行预测 3. 使用的环境是tensorflow 4. 建议安装cuda使用 5. 该检测容易误检人脸,建议演示时避免人脸靠得太近 6. 根据手语对照表可以使用项目检测相应的手语

2022-11-04

python实现含UI界面和数据库的学生成绩管理系统.zip

Python实现的一个使用PyQt5写的带UI界面的学生成绩管理系统,并且可以链接MySQL数据库

2022-11-04

python图片批量去重脚本.zip

基于opencv写了一个图片批量去重的python脚本,可以对比图片相似度并且保留相似但是更为清晰的图片

2022-11-04

人脸检测和动漫脸检测剪裁脚本.zip

一个用于批量识别并裁剪文件夹中所有图片中出现的人脸或者出现过的动漫脸的轻量级python脚本,可以将自己收集的含有人脸的图片直接裁剪出来,可以供后续的人脸识别做准备。注:文件夹路径分隔要用“/”而不是“\”,可私信讨论

2022-11-04

可以用于将图片转换为扫描样式的图片二值化工具

可以用于将图片转换为扫描样式的图片二值化工具

2022-11-04

包 子 阳 智 能 优 化 算 法 及 matlab 实 例 源 代 码

包 子 阳 智 能 优 化 算 法 及 matlab 实 例 源 代 码

2022-05-25

python实现用于图片拟合的免疫遗传算法

为了快速理解免疫遗传算法,以图片拟合为背景,使用python实现免疫遗传算法的手动实现,详细解析请查看我的博客:https://editor.csdn.net/md?not_checkout=1&articleId=124096240

2022-04-11

交叉进化算法python手动实现

python手动实现交叉进化算法对于函数最值的求解

2022-03-09

python实现使用遗传算法进行图片拟合

python手动实现使用遗传算法进行图片拟合,有利于对智能优化算法的理解和实现,详细的解释和介绍可参照我的博客 https://blog.csdn.net/DuLNode/article/details/123023288

2022-02-21

飞桨实现卷积神经网络手写数字识别.ipynb

使用飞桨实现手写数字识别

2021-12-06

无监督学习-kmeans聚类算法及手动实现jupyter代码.ipynb

无监督学习-kmeans聚类算法及手动实现jupyter代码.ipynb

2021-12-03

rarlinux-5.3.0.tar.gz

rarlinux-5.3.0.tar.gz

2021-12-09

telnet-server-0.17-47.el6.x86_64.rpm

telnet-server-0.17-47.el6.x86_64.rpm

2021-12-09

Linux下Shell编程.ppt

Shell的简介以及Linux使用shell编程的指令及命令

2021-12-07

使用飞桨(Paddle)构建单层神经网络.ipynb

使用飞桨(Paddle)构建单层神经网络.ipynb

2021-12-04

python实现梯度下降.ipynb

用python手动实现梯度下降

2021-12-04

甲状腺癌复发数据集(RAI 治疗后的甲状腺癌数据集,分析性别、年龄和风险因素)

该数据集侧重于放射性碘 (RAI) 治疗后的甲状腺癌复发情况。它包含 383 份患者记录,具有 13 个关键属性,包括年龄、性别、癌症分期、病理类型、风险分类、治疗反应和复发状态。这些数据对于预测癌症复发、了解风险因素和评估治疗结果很有价值。

2025-04-15

注释超声肝脏图像数据集

该数据集包含一组带注释的肝脏超声图像,旨在帮助开发用于肝脏分析、分割和疾病检测的计算机视觉模型。注释包括肝脏和肝脏肿块区域的轮廓,以及良性、恶性和正常病例的分类。此数据集提供肝脏的超声图像和详细的注释。注释突出显示肝脏本身和存在的任何肝脏肿块区域。这些图像分为三类: 良性:显示良性肝脏状况的图像。 恶性:显示肝脏恶性病变的图像。 正常:健康肝脏的图像。

2025-04-15

IMDb 电影类型分类数据集

movies_overview.csv: title:电影标题 overview:电影的简要说明或概要 genre_ids:一个或多个流派标识符(可以是多标签) movies_genres.csv: id:流派标识符 name:对应的流派名称

2025-04-15

电动汽车保有量数据集(来自美国政府的电动汽车数量数据)

此数据集提供了有关目前在美国注册的电池电动汽车 (BEV) 和插电式混合动力电动汽车 (PHEV) 的详细信息,特别是通过华盛顿州许可部 (DOL)。该数据集包括这些电动汽车的各种属性,例如品牌、型号、注册年份以及反映华盛顿州电动汽车采用增长趋势的其他相关数据。它提供了有关道路上电动汽车类型及其地理分布的宝贵见解,并帮助跟踪该州电动汽车使用情况的演变。对于有兴趣研究美国电动汽车市场的政策制定者、研究人员和组织,以及开发基础设施和服务以支持日益增长的电动汽车需求的人来说,该数据集是一个有用的资源

2025-04-15

土壤污染和相关健康影响数据集

该数据集包含 3000 条合成记录,用于模拟土壤污染和相关疾病的真实场景。它捕获环境、农业和人口统计变量,以分析土壤污染与人类健康结果之间的相关性。数据是使用概率模型和领域知识生成的,使其适用于探索性分析、机器学习和环境健康研究。 主要功能包括: 土壤中的污染物类型和浓度 土壤和天气条件 农业实践和附近的行业分布 报告的疾病类型、严重程度和症状 受影响的人口统计细分 缓解措施和案例解决方案 它非常适合用于数据科学项目、公共卫生研究、环境建模和预测分析。

2025-04-15

沃尔玛股票数据(2000年至2025年)

Walmart Inc. 是一家全球性的美国零售集团,主导着美国市场的大部分。沃尔玛在财富全球 500 强全球最高收入企业名单中一直名列前茅。 截至 2025 年 3 月,沃尔玛的市值为 6795 亿美元。这使得沃尔玛成为全球市值最有价值的公司之一。市值,通常称为市值,是上市公司流通股的总市值,通常用于衡量公司的价值。

2025-04-15

骨折数据集 – 胫骨和腓骨

该数据集旨在开发用于胫骨和腓骨骨折分类和定位的机器学习模型。它包含格式的 X 射线图像,其中一些图像已由埃塞俄比亚 Gondar 大学的医学专家验证,而其他图像则来自公共存储库。 该数据集旨在支持: 自动诊断胫骨和腓骨骨折 深度学习在骨科放射学中的应用 医学影像研究和临床决策支持 所有图像均为 PNG 格式,并经过图像增强和增强,以提高机器学习任务的质量和可用性。 包含的文件: 胫骨和腓骨的 PNG 格式 X 射线图像集合 图片来自: 贡达大学转诊医院 MURA(肌肉骨骼 X 光片)数据集 总大小:319 MB

2025-04-15

300IDUO卡mindie镜像百度云

适用于300IDUO的mindie环境的Docker镜像,已上传到百度云

2025-03-12

GraphRAG输出中文提示词

在使用GraphRAG时发现,生成的结果均为英文,并不能直接使用。 经历了对于提示词的逐步调整,总算是整理出来了一套可以输出中文知识图谱的提示词 使用方式:解压后替换掉原先的提示词文件即可

2025-02-18

OpenCV、Python和scikit-learn进行智能图像处理-资料以及代码.rar

OpenCV、Python和scikit-learn进行智能图像处理——资料以及代码

2023-04-05

PyQT5-代码实例库

个人在使用PyQt的过程中遇到使用过的一些PyQt的各类小demo 按照控件和功能用法分好类了,方便查找和学习

2024-04-13

加州房价数据集(california-house-prices)

加州房价数据集,可以用于数据分析、机器学习和深度学习的学习使用

2023-03-09

rafdb表情识别数据集

用于表情识别的rafdb数据集

2023-02-23

python学生成绩管理系统合集.zip

其中包含一个实验报告和三个版本的学生成绩管理系统 三个版本分别为 tkinter界面 PyQt5界面 PyQt5界面+MySql

2023-02-17

机器学习资料、实验代码及报告.zip

学习机器学习过程中的资料、代码和实验报告,可供学习使用 其中包括 实验1-机器学习入门 实验2-KNN分类 实验3-贝叶斯分类上 实验3-贝叶斯分类下 实验4-决策树分类器上 实验5-支持向量 实验6-线性回归 实验7-聚类分析 实验8-降维分析 实验报告 机器学习实战 机器学习模型分类汇总

2023-02-17

三国人物关系词频分析词云图.zip

三国人物关系的词云图,通过从txt文件中读出文本进行分词、数据处理、词频分析获取词频与词云图

2023-02-17

航拍语义分割(附数据集).zip

使用航拍数据集进行的语义分割操作,其中有两种语义分割的方法,有早期的U-net模型,也有较为新的deeplabv3+模型,其中包含数据集,代码形式为jupyter notebook,便于观察数据的变化

2023-02-17

用于语义分割的航拍数据集

数据集包含6个类别: 1、Building: #3C1098 2、Land (unpaved area): #8429F6 3、Road: #6EC1E4 4、Vegetation: #FEDD3A 5、Water: #E2A929 6、Unlabeled: #9B9B9B

2023-02-17

手写数学符号识别项目-Handwritten-math-symbols-recognition.zip

数据集来自:https://www.kaggle.com/datasets/xainano/handwrittenmathsymbols 由82个类别,共计30万张图片,重写数据加载器解决了在笔记本上数据过大难以加载的问题,使用了现代常用的CNN网络如VGG,googleNet,resNet等进行模型的训练

2023-02-17

fashionMNIST数据集

由于学习pytorch时出现这个数据集的下载问题,所以在这里免费分享一下,如果对您有帮助希望能给我一个关注,谢谢

2023-01-07

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除