自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

datayx的文章

有内容有料

  • 博客(1292)
  • 资源 (23)
  • 收藏
  • 关注

原创 汇集所有大模型架构图!大模型架构演进全解析

Transformer架构已成为大模型基座,但不同模型的Attention机制、MoE设计、位置编码等关键实现差异显著,理解这些差异对于架构选型和模型优化至关重要。每个模型都有标准化卡片:参数规模、Decoder类型、Attention机制、KV Cache、发布日期、许可证...MHA、GQA、MLA、MoE、SWA、RoPE、NoPE、QK-Norm、MTP...每个概念都有独立解释页面。项目,汇集了60+主流大模型的标准化架构图谱,支持任意模型间的架构Diff对比。

2026-05-10 09:11:38 70

原创 98%准确率!这个双分支AI模型,精准识别木薯叶病害(附代码)

CNN像拿着放大镜看叶片细节的农技员,Transformer像站在田埂上看整片作物的专家——DenseSwinV2把两者结合起来,既看细节又看全局。把擅长看细节的CNN和擅长看全局的Transformer拼在一起,再加个“注意力开关”突出病害特征,让AI既懂局部细节,又懂整体关联。通俗说:就像给每个特征通道装了个“开关”,病害相关的通道开大,背景无关的通道关小,让模型专注学病害特征。:密集连接的CNN,每一层都和前面所有层连接,能保留最精细的局部特征,梯度流动也更好(不容易训练崩溃)

2026-05-06 08:00:26 228

转载 DeepSeek-V4发布后,顶会投稿量暴涨3倍:被导师放养的你,凭什么是那个“Accept”?

十余年专注学术论文全流程支持,精准匹配海内外名校博士与资深期刊审稿人,全程一对一跟进,平均 2‑6 个月中稿。研梦非凡不做工具的替代品,而是用 十几年经验 + 1v1 大牛导师,帮你打造“审稿人一眼就想录”的高创新论文。:不会在你被拒稿时帮你分析 reviewer 2 的刁钻问题,更不会教你写 rebuttal。,你要逐字逐句地、像做手工一样地给论文“降AI”,使其变成更像人类研究者的“个性化论文”?不限次匹配导师,直到你满意。返修环节,审稿人导师还会帮你逐一审核 rebuttal,直到你自信点击提交。

2026-05-03 12:45:48 18

原创 大模型怎么听懂人话?彻底搞懂Token的本质

这样训练出来的Tokenizer,既能处理常见词(整个词作为一个Token),也能处理生僻词(拆成子词Token),效率很高。第一次合并:“un”出现频率高 → 合并成["un", "h", "a", "p", "p", "i", "l", "y"]初始:["u", "n", "h", "a", "p", "p", "i", "l", "y"](对应“unhappy”)”,大模型是怎么“听懂”这句话的?第二次合并:“happy”出现频率高 → 合并成["un", "happy", "l", "y"]

2026-05-02 09:01:51 492

原创 CVPR 2026论文解读:SynSur端到端工业表面缺陷生成与检测

该研究的核心思路:利用视觉语言模型提示、LoRA适配的扩散模型、掩码引导修复等技术,自动生成带标注的缺陷样本,降低对大规模真实标注数据的依赖。)提出了一种端到端的工业表面缺陷生成与检测管线,通过合成数据与真实数据结合,辅助提升缺陷检测效果。:生成样本的质量直接通过检测模型的性能进行验证,无需单独评估生成环节,实现两个环节的协同优化。指定缺陷位置,仅在目标区域生成缺陷内容,保持背景区域与原始图像一致,提升生成样本的真实感。,且生成与检测环节采用端到端评估,可快速定位管线中的问题节点。

2026-05-02 09:01:51 264

原创 CVPR 2026创新:AI交警来了!1.6万视频训练,责任判定秒杀人类专家

比如要判定责任,必须先知道事故类型、时间、主体、事实、原因。:DecaTARA数据集10项任务联动,6.8万视频+19.6万QA,为后续研究提供基准。:第一次定义了TARA(交通事故责任分配)任务,填补了事故检测和理解之后的空白。之前的模型只会"看图说话",不会"依法断案"。:上传事故视频,AI自动生成责任认定书初稿,交警审核后签发,效率提升10倍。四、DecaTARA数据集:10项任务,6.8万视频,19.6万问答对。:MCoT+RAG组合拳,让AI既能推理又能懂法,幻觉率降低88%

2026-05-01 08:51:38 670

原创 14.7M参数,小目标AP达到13.9%!FSDETR用频空融合重新定义目标检测

16倍下采样后,一个32x32的小目标,就只剩下2x2像素了。这就好像你听音乐,既要看五线谱(空域),也要听频率(频域),两个结合起来才能完整理解音乐。很多方法把不同层级的特征强行融合,但高层特征语义虽然强,空间位置信息早就模糊了。这就是DA-AIFI做的事——自动找到小目标最可能出现的位置,然后重点关注。无人机航拍影像中,那些只有十几个像素的小目标,传统检测器一不小心就漏掉了。两者结合 = 既知道"这是个人",又看清了"他的衣服是什么颜色"这就是"语义错位"——你知道这是个物体,但不知道它在哪儿。

2026-04-29 08:08:06 555

原创 RF-DETR-首个突破60 AP的实时检测器(附实战教程)

RF-DETR的创新在于:用神经架构搜索(NAS),找到了一套让Transformer实时运行的"最优解"。注意:在哪台GPU上转换,就在哪台GPU上部署(引擎文件不可跨GPU架构迁移)。DETR走的是Transformer路线,擅长全局理解,但推理速度曾是痛点。YOLO系列适合稳定生产的场景,RF-DETR适合追求精度上限的场景。60 mAP,意味着它能识别的物体更准、漏检更少、误报率更低。这不是什么"发布即结束"的学术项目,这是一个活的工程系统。YOLO走的是CNN路线,擅长速度,但全局建模能力受限。

2026-04-28 08:29:01 301

原创 2026年大模型API免费额度盘点:14个平台薅羊毛指南,看这篇就够了

Gemini 2.5 Flash:$0.15/百万Token(输入),$0.60/百万Token(输出)Claude Haiku 3.5:$0.80/百万Token(输入),$4/百万Token(输出)GPT-4o-mini:$0.15/百万Token(输入),$0.60/百万Token(输出)。GPT-4.5:$2.50/百万Token(输入),$10/百万Token(输出)GPT-4o:$2.50/百万Token(输入),$10/百万Token(输出)(RPM/QPS),不是想调就调。

2026-04-26 11:47:48 1575

原创 DeepSeek-V4 本地部署实战指南:4套方案从入门到企业级(附RTX 5090实测数据)

V4-Flash 便宜是便宜,输入 1 元/M token,输出 2 元/M token,但量大了还是肉疼。V4-Pro 更离谱,输入 12 元/M token,输出 24 元/M token,这价格要是天天调用,月账单轻松破万。用 4-bit 量化跑 V4-Flash,显存占用 ~22GB,延迟 ~80ms/token,并发能到 2-3 路。换句话说,同样的硬件,能跑更长的上下文、更大的并发。Flash 是「小而美」,一张 RTX 4090/5090 就能跑,门槛低,效果够用。

2026-04-25 13:04:28 518

转载 DINOv3 + YOLO26 实战指南:如何用自监督学习把目标检测精度再拉高 10 个点?

训练过程中,它用 Gram 矩阵来约束特征分布,防止模型"躺平"——学到的特征越来越简单、越来越没有区分度。YOLO 像是提前刷了大量真题(监督学习),它知道"这道题考的是猫"是因为它见过很多张标注了"猫"的图片。但遇到角度刁钻、光线诡异的猫,它就容易翻车。没有花里胡哨的理论,就是一步一步告诉你:怎么把 DINOv3 的特征提取能力嫁接到 YOLO26 上,让你的检测器真正"看得更准"。DINOv3 在海量无标注图像上预训练过,它已经知道"边缘是什么"、"纹理是什么"、"形状是什么"、"遮挡是什么"

2026-04-23 08:22:24 15

转载 AutoResearch实战:让AI自己训YOLO,mAP从0.729到0.773

之后Agent在focused-TAL的参数空间里又精调了二十多轮,搜索范围快速收缩:从最初大范围探索(topk 15-24, beta 2.3-4.0, boost 1.5-2.3),到最后集中在一个很小的区间(topk 21-24, beta 2.6-2.9, boost 2.0-2.15)。H100按小时租,3美元一小时,实际花了10个小时。工业缺陷检测这种场景,1800张图摆在那里,模型选型、超参配置、数据增强,每一步都有人教你"最佳实践",但你真金白银白银下去,结果往往和你预想的不太一样。

2026-04-11 09:04:00 207 1

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 912

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。

2026-04-10 08:02:48 724

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 672

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 546

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 620

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。

2026-04-10 08:02:48 272

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。

2026-04-10 08:02:48 404

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 523

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 526

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 513

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 683

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。

2026-04-10 08:02:48 554

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。

2026-04-10 08:02:48 506

原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元

全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。

2026-04-10 08:02:48 606

原创 大模型高效推理与部署技术实战:从显存优化到服务化落地

传统推理框架在处理多个请求时,会为每个请求预分配一段连续的 KV Cache,即使请求提前结束,这块内存也不能被其他请求复用。但好消息是,过去一年,工业界已经摸索出一套相对成熟的解决方案。实测下来,INT8 量化基本不影响模型能力,INT4 在大多数任务上也能接受,但在复杂推理任务上会有明显下降。如果你的场景是边缘设备(手机、IoT 设备、嵌入式系统),显存和算力都严重不足,量化还不够,还需要进一步压缩。如果你的场景是高吞吐、低延迟,并且只用 NVIDIA GPU,TensorRT-LLM 是更好的选择。

2026-04-07 08:29:29 640

原创 别再用切块 RAG 了!这个开源工具让 AI 真正「读懂」你所有文档

它不替代 LangChain 、 LlamaIndex 或者你的 LLM 提供商( GPT-4 、 Claude 3.5 都支持),而是在这些工具之上叠加了。传统的 RAG (检索增强生成)系统有个致命弱点——它把文档切成碎片,只靠向量相似度来"猜"答案。如果你的 RAG 系统正在遭遇"答非所问"的瓶颈,或者你需要 AI 输出具备可审计性, Semantica 值得认真评估。如果你正在搭建企业知识库、开发需要溯源的 AI 应用,或者受够了 RAG 答非所问的表现,今天这篇文章就是为你写的。

2026-04-04 09:04:01 658

原创 Qwen3.6-Plus深度测评:通义千问的新王炸,能打几分?

没有盛大的发布会,没有铺天盖地的通稿,就这么静静地躺在 OpenRouter 的模型列表里,免费供人使用。现在,一个开源模型也能做到 80%的水平,而且成本只有十分之一。但它的出现,让“开源大模型能打”这件事,从一句口号变成了可验证的事实。:在 HumanEval (代码生成)上, 87.2%的成绩虽然优秀,但距离 Claude 的 89.3%和 GPT-4o 的 90.1%仍有距离。简单说,就是把一个大模型拆成多个“专家子模型”,每次推理只激活其中几个,既保持了模型容量,又大幅降低了计算成本。

2026-04-03 08:25:12 1054

原创 Chandra OCR 2开源了!官方测试基准上拿下了85.9分,直接碾压了GPT-4o的69.9

A:综合准确率Chandra OCR 2(85.9%)vs GPT-4o(69.9%),表格识别Chandra(88%)vs GPT-4o(70%),数学公式Chandra(80.3%)vs GPT-4o(74.5%)。它不仅能认字,还能理解文档结构——标题层级、多栏排版、嵌套表格、数学公式、手写批注、表单复选框,它都能识别出来,并且原样输出为带语义的Markdown、HTML或结构化JSON。更大的商业用途需要联系授权。A:官方支持90+语言,包括中文(简繁)、英文、阿拉伯语、日语、韩语、法语、德语等。

2026-04-01 08:32:30 789

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 656

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 623

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 647

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 648

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 544

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 591

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 610

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 523

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 534

原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“

实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。

2026-03-31 08:36:48 543

电动车佩戴头盔检测数据集(TWHD)

电动车佩戴头盔检测数据集(TWHD) 数据集已经按照VOC格式进行整理,可以直接通过labelImg读取打开查看相关的标注信息。图像分辨率不一,总体在1080P以下,不区分训练集和测试集,总计5448张图像样本与标注xml文件。数据集标注共三个类别: two_wheeler,二轮车主体,黄色框 helmet,佩戴头盔的头部,绿色框 without_helmet,未戴头盔的头部,红色框

2024-03-02

目标检测yolov系列半自动标注数据集代码

目标检测yolov系列半自动标注数据集代码。如果待标注数据集量大,可以先手动标注少量,然后训练出初版目标检测模型,然后用初版模型预测进行预标注,最后人工检查预标注,修正误检标注。 步骤: 1.将待标注图像放入auto_label/images 2.修改auto_label.py的第62至65行如下的内容: path = r"auto_label/images" #待标注图片路径 xml_path = r"auto_label/images" #输出的xml标注文件保存路径 yolo_model_weight='./weight/IDCard_v6x_best.pt' #模型文件路径 data_conf = './data/custom_data.yaml' #数据集配置文件路径 3.运行auto_label.py

2024-03-01

python目标检测数据增强代码VOC格式转换为COCO格式代码

python目标检测数据增强代码,增强方式包含裁剪(需改变bbox)、平移(需改变bbox)、改变亮度、加噪声、旋转角度(需要改变bbox)、镜像(需要改变bbox)、cutout等。 同时也包含了将VOC格式数据集转换为COCO格式的代码。代码适合用于各种计算机视觉目标检测数据集增强,增广数据集,增加检测模型鲁棒性,减小模型漏检、误检等情况,适合用于YOLO系列模型,YOLOv1到YOLOv9训练。

2024-03-01

darknet_windows.rar已编译直接可用yolo3

windows下darknet(CPU版本)已经编译好,包含libdarknet.so等文件,已经编译好,直接可以用,已经测试成功使用YOLO3

2020-02-27

图片分类数据集(17类花朵)

图像分类数据集:17个类别的花朵数据集,训练集800张,验证集和测试集260张

2019-09-18

细粒度用户评论情感分析数据集(2018-AI-challenger)

共包含6大类20个细粒度要素的情感倾向.数据集分为训练、验证、测试A与测试B四部分。数据集中的评价对象按照粒度不同划分为两个层次,层次一为粗粒度的评价对象,例如评论文本中涉及的服务、位置等要素;层次二为细粒度的情感对象,例如“服务”属性中的“服务人员态度”、“排队等候时间”等细粒度要素。每个细粒度要素的情感倾向有四种状态:正向、中性、负向、未提及.

2019-03-23

pythons爬虫_抓取微信公众号 历史文章

pythons爬虫:抓取微信公众号 历史文章

2017-08-20

Kaggle自然语言处理文本匹配竞赛华人第1名团队PPT与代码-深度学习与特征工程

Kaggle自然语言处理文本匹配竞赛华人第1名团队PPT-深度学习与特征工程,代码仓库地址在ppt 内

2018-11-28

HanLp数据字典(1.7.1)

汉语言处理包中的data.zip数据,github上下载速度有点慢,这里提供下载。其他相关资源可从官网上下载jar包及配置文件。

2019-03-26

语义相似度任务-LCQMC数据集下载lcqmc.zip

语义相似度任务-LCQMC数据集下载。LCQMC 是哈尔滨工业大学在自然语言处理国际顶会 COLING2018 构建的问题语义匹配数据集,其目标是判断两个问题的语义是否相同。

2019-07-28

libstdc++.so.6.0.23下载

顺利解决/usr/lib64/libstdc++.so.6: version `CXXABI_1.3.8‘ not found

2021-08-05

TensorRT-7.0.0.11.CentOS-7.6.x86_64-gnu.cuda-10.0.cudnn7.6.txt

百度网盘下载链接 TensorRT-7.0.0.11.CentOS-7.6.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz TensorRT-7.0.0.11.CentOS-7.6.x86_64-gnu.cuda-10.2.cudnn7.6.tar.gz

2021-04-10

linux系统(Ubuntu)已编译darknet(cpu版)直接可用

linux系统(Ubuntu)已编译darknet(cpu版),包含libdarknet.so等文件,下载下来直接可用,成功测试yolo3。

2020-02-27

COCO API的安装包 cocoapi.zip 安装pycocotools

COCO API的完整安装包,带_mask.c文件 cocoapi.zip,安装pycocotools

2021-09-10

阿里天池FashionAI服装属性标签图像识别Top1-5方案分享

阿里天池FashionAI服装属性标签图像识别Top1-5方案分享

2019-01-06

爬取P2P网站

爬取P2P网站

2017-08-20

GoogleNews-vectors-negative300.bin.gz

GoogleNews-vectors-negative300.bin.gz是word2vec提前训练好的model。

2019-07-20

python图片下载器

python图片下载,传入图片url,将图片保存在本地

2017-08-11

Cube-IQ-使用方法_图文说明_使用步骤.docx

Cube-IQ-使用方法_图文说明,Cube iq使用方法,Cube iq 装载优化软件,Cube iq使用步骤Cubeiq 使用方法 newload 创建装载方案 比如装载casio ,可以设装载项目为casio

2021-05-05

python字符串处理去掉符号加空格

# 1、去掉特殊符号".","","#"; # 2、去掉中间多余空格; # 3、去掉首尾空格; # 4、中文与英文间添加空格

2017-08-11

Python3语法速查本PDF.zip

Python3语法速查本

2019-12-05

Deep Learning for NLP with TensorFlow2.0.zip

最新基于TensorFlow 2.0的NLP实操介绍,重点介绍Embeddings,seq2seq,attention和神经机器翻译等经典的NLP主题,以及Transformer、BERT和XLNet等现代深度学习架构.

2020-07-10

阿里巴巴机器智能技术精选合集.PDF

阿里巴巴在 AAAI 2018 上也收获了 11 篇录用论文,分别来自 iDST、 业务平台事业部、阿里妈妈事业部、人工智能实验室、云零售事业部,其 中有 5 位作者受邀在主会做 Oral 形式报告,另有 1 位作者携两篇论文在 主会以 Poster 形式做报告。论文内容涉及对抗学习、神经网络、提高轻 量网络性能的训练框架、聊天机器人、无监督学习框架、极限低比特神经 网络等技术方向。

2019-12-05

吴恩达深度学习课程-神经网络和深度学习

吴恩达深度学习课程-神经网络和深度学习。

2018-11-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除