- 博客(1292)
- 资源 (23)
- 收藏
- 关注
原创 汇集所有大模型架构图!大模型架构演进全解析
Transformer架构已成为大模型基座,但不同模型的Attention机制、MoE设计、位置编码等关键实现差异显著,理解这些差异对于架构选型和模型优化至关重要。每个模型都有标准化卡片:参数规模、Decoder类型、Attention机制、KV Cache、发布日期、许可证...MHA、GQA、MLA、MoE、SWA、RoPE、NoPE、QK-Norm、MTP...每个概念都有独立解释页面。项目,汇集了60+主流大模型的标准化架构图谱,支持任意模型间的架构Diff对比。
2026-05-10 09:11:38
70
原创 98%准确率!这个双分支AI模型,精准识别木薯叶病害(附代码)
CNN像拿着放大镜看叶片细节的农技员,Transformer像站在田埂上看整片作物的专家——DenseSwinV2把两者结合起来,既看细节又看全局。把擅长看细节的CNN和擅长看全局的Transformer拼在一起,再加个“注意力开关”突出病害特征,让AI既懂局部细节,又懂整体关联。通俗说:就像给每个特征通道装了个“开关”,病害相关的通道开大,背景无关的通道关小,让模型专注学病害特征。:密集连接的CNN,每一层都和前面所有层连接,能保留最精细的局部特征,梯度流动也更好(不容易训练崩溃)
2026-05-06 08:00:26
228
转载 DeepSeek-V4发布后,顶会投稿量暴涨3倍:被导师放养的你,凭什么是那个“Accept”?
十余年专注学术论文全流程支持,精准匹配海内外名校博士与资深期刊审稿人,全程一对一跟进,平均 2‑6 个月中稿。研梦非凡不做工具的替代品,而是用 十几年经验 + 1v1 大牛导师,帮你打造“审稿人一眼就想录”的高创新论文。:不会在你被拒稿时帮你分析 reviewer 2 的刁钻问题,更不会教你写 rebuttal。,你要逐字逐句地、像做手工一样地给论文“降AI”,使其变成更像人类研究者的“个性化论文”?不限次匹配导师,直到你满意。返修环节,审稿人导师还会帮你逐一审核 rebuttal,直到你自信点击提交。
2026-05-03 12:45:48
18
原创 大模型怎么听懂人话?彻底搞懂Token的本质
这样训练出来的Tokenizer,既能处理常见词(整个词作为一个Token),也能处理生僻词(拆成子词Token),效率很高。第一次合并:“un”出现频率高 → 合并成["un", "h", "a", "p", "p", "i", "l", "y"]初始:["u", "n", "h", "a", "p", "p", "i", "l", "y"](对应“unhappy”)”,大模型是怎么“听懂”这句话的?第二次合并:“happy”出现频率高 → 合并成["un", "happy", "l", "y"]
2026-05-02 09:01:51
492
原创 CVPR 2026论文解读:SynSur端到端工业表面缺陷生成与检测
该研究的核心思路:利用视觉语言模型提示、LoRA适配的扩散模型、掩码引导修复等技术,自动生成带标注的缺陷样本,降低对大规模真实标注数据的依赖。)提出了一种端到端的工业表面缺陷生成与检测管线,通过合成数据与真实数据结合,辅助提升缺陷检测效果。:生成样本的质量直接通过检测模型的性能进行验证,无需单独评估生成环节,实现两个环节的协同优化。指定缺陷位置,仅在目标区域生成缺陷内容,保持背景区域与原始图像一致,提升生成样本的真实感。,且生成与检测环节采用端到端评估,可快速定位管线中的问题节点。
2026-05-02 09:01:51
264
原创 CVPR 2026创新:AI交警来了!1.6万视频训练,责任判定秒杀人类专家
比如要判定责任,必须先知道事故类型、时间、主体、事实、原因。:DecaTARA数据集10项任务联动,6.8万视频+19.6万QA,为后续研究提供基准。:第一次定义了TARA(交通事故责任分配)任务,填补了事故检测和理解之后的空白。之前的模型只会"看图说话",不会"依法断案"。:上传事故视频,AI自动生成责任认定书初稿,交警审核后签发,效率提升10倍。四、DecaTARA数据集:10项任务,6.8万视频,19.6万问答对。:MCoT+RAG组合拳,让AI既能推理又能懂法,幻觉率降低88%
2026-05-01 08:51:38
670
原创 14.7M参数,小目标AP达到13.9%!FSDETR用频空融合重新定义目标检测
16倍下采样后,一个32x32的小目标,就只剩下2x2像素了。这就好像你听音乐,既要看五线谱(空域),也要听频率(频域),两个结合起来才能完整理解音乐。很多方法把不同层级的特征强行融合,但高层特征语义虽然强,空间位置信息早就模糊了。这就是DA-AIFI做的事——自动找到小目标最可能出现的位置,然后重点关注。无人机航拍影像中,那些只有十几个像素的小目标,传统检测器一不小心就漏掉了。两者结合 = 既知道"这是个人",又看清了"他的衣服是什么颜色"这就是"语义错位"——你知道这是个物体,但不知道它在哪儿。
2026-04-29 08:08:06
555
原创 RF-DETR-首个突破60 AP的实时检测器(附实战教程)
RF-DETR的创新在于:用神经架构搜索(NAS),找到了一套让Transformer实时运行的"最优解"。注意:在哪台GPU上转换,就在哪台GPU上部署(引擎文件不可跨GPU架构迁移)。DETR走的是Transformer路线,擅长全局理解,但推理速度曾是痛点。YOLO系列适合稳定生产的场景,RF-DETR适合追求精度上限的场景。60 mAP,意味着它能识别的物体更准、漏检更少、误报率更低。这不是什么"发布即结束"的学术项目,这是一个活的工程系统。YOLO走的是CNN路线,擅长速度,但全局建模能力受限。
2026-04-28 08:29:01
301
原创 2026年大模型API免费额度盘点:14个平台薅羊毛指南,看这篇就够了
Gemini 2.5 Flash:$0.15/百万Token(输入),$0.60/百万Token(输出)Claude Haiku 3.5:$0.80/百万Token(输入),$4/百万Token(输出)GPT-4o-mini:$0.15/百万Token(输入),$0.60/百万Token(输出)。GPT-4.5:$2.50/百万Token(输入),$10/百万Token(输出)GPT-4o:$2.50/百万Token(输入),$10/百万Token(输出)(RPM/QPS),不是想调就调。
2026-04-26 11:47:48
1575
原创 DeepSeek-V4 本地部署实战指南:4套方案从入门到企业级(附RTX 5090实测数据)
V4-Flash 便宜是便宜,输入 1 元/M token,输出 2 元/M token,但量大了还是肉疼。V4-Pro 更离谱,输入 12 元/M token,输出 24 元/M token,这价格要是天天调用,月账单轻松破万。用 4-bit 量化跑 V4-Flash,显存占用 ~22GB,延迟 ~80ms/token,并发能到 2-3 路。换句话说,同样的硬件,能跑更长的上下文、更大的并发。Flash 是「小而美」,一张 RTX 4090/5090 就能跑,门槛低,效果够用。
2026-04-25 13:04:28
518
转载 DINOv3 + YOLO26 实战指南:如何用自监督学习把目标检测精度再拉高 10 个点?
训练过程中,它用 Gram 矩阵来约束特征分布,防止模型"躺平"——学到的特征越来越简单、越来越没有区分度。YOLO 像是提前刷了大量真题(监督学习),它知道"这道题考的是猫"是因为它见过很多张标注了"猫"的图片。但遇到角度刁钻、光线诡异的猫,它就容易翻车。没有花里胡哨的理论,就是一步一步告诉你:怎么把 DINOv3 的特征提取能力嫁接到 YOLO26 上,让你的检测器真正"看得更准"。DINOv3 在海量无标注图像上预训练过,它已经知道"边缘是什么"、"纹理是什么"、"形状是什么"、"遮挡是什么"
2026-04-23 08:22:24
15
转载 AutoResearch实战:让AI自己训YOLO,mAP从0.729到0.773
之后Agent在focused-TAL的参数空间里又精调了二十多轮,搜索范围快速收缩:从最初大范围探索(topk 15-24, beta 2.3-4.0, boost 1.5-2.3),到最后集中在一个很小的区间(topk 21-24, beta 2.6-2.9, boost 2.0-2.15)。H100按小时租,3美元一小时,实际花了10个小时。工业缺陷检测这种场景,1800张图摆在那里,模型选型、超参配置、数据增强,每一步都有人教你"最佳实践",但你真金白银白银下去,结果往往和你预想的不太一样。
2026-04-11 09:04:00
207
1
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
912
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。
2026-04-10 08:02:48
724
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
672
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
546
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
620
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。
2026-04-10 08:02:48
272
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。
2026-04-10 08:02:48
404
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
523
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
526
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
513
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
683
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。
2026-04-10 08:02:48
554
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……当然,这个"工程师"还有不足——复杂推理、长文本理解、多模态处理,这些都还有提升空间。
2026-04-10 08:02:48
506
原创 智谱GLM-5.1深度评测:8小时连续工作,开源大模型进入“工程交付“新纪元
全球首个通过真实工程任务验证8小时持续工作能力的开源模型,在SWE-Bench Pro上超越GPT-5.4和Claude Opus 4.6登顶全球第一,重新定义AI从"回答问题"到"完成项目"的范式转变。有个AI,在真实工程任务中连续工作了8小时,完成了1200多步操作,从零搭建了一套完整的Linux桌面环境。但真实工程任务不一样:你可能需要先查资料,再写代码,发现报错后换思路,再试,再报错,再换……也就是说,GLM-5.1用24小时做的优化,效果是PyTorch官方AutoTune的。
2026-04-10 08:02:48
606
原创 大模型高效推理与部署技术实战:从显存优化到服务化落地
传统推理框架在处理多个请求时,会为每个请求预分配一段连续的 KV Cache,即使请求提前结束,这块内存也不能被其他请求复用。但好消息是,过去一年,工业界已经摸索出一套相对成熟的解决方案。实测下来,INT8 量化基本不影响模型能力,INT4 在大多数任务上也能接受,但在复杂推理任务上会有明显下降。如果你的场景是边缘设备(手机、IoT 设备、嵌入式系统),显存和算力都严重不足,量化还不够,还需要进一步压缩。如果你的场景是高吞吐、低延迟,并且只用 NVIDIA GPU,TensorRT-LLM 是更好的选择。
2026-04-07 08:29:29
640
原创 别再用切块 RAG 了!这个开源工具让 AI 真正「读懂」你所有文档
它不替代 LangChain 、 LlamaIndex 或者你的 LLM 提供商( GPT-4 、 Claude 3.5 都支持),而是在这些工具之上叠加了。传统的 RAG (检索增强生成)系统有个致命弱点——它把文档切成碎片,只靠向量相似度来"猜"答案。如果你的 RAG 系统正在遭遇"答非所问"的瓶颈,或者你需要 AI 输出具备可审计性, Semantica 值得认真评估。如果你正在搭建企业知识库、开发需要溯源的 AI 应用,或者受够了 RAG 答非所问的表现,今天这篇文章就是为你写的。
2026-04-04 09:04:01
658
原创 Qwen3.6-Plus深度测评:通义千问的新王炸,能打几分?
没有盛大的发布会,没有铺天盖地的通稿,就这么静静地躺在 OpenRouter 的模型列表里,免费供人使用。现在,一个开源模型也能做到 80%的水平,而且成本只有十分之一。但它的出现,让“开源大模型能打”这件事,从一句口号变成了可验证的事实。:在 HumanEval (代码生成)上, 87.2%的成绩虽然优秀,但距离 Claude 的 89.3%和 GPT-4o 的 90.1%仍有距离。简单说,就是把一个大模型拆成多个“专家子模型”,每次推理只激活其中几个,既保持了模型容量,又大幅降低了计算成本。
2026-04-03 08:25:12
1054
原创 Chandra OCR 2开源了!官方测试基准上拿下了85.9分,直接碾压了GPT-4o的69.9
A:综合准确率Chandra OCR 2(85.9%)vs GPT-4o(69.9%),表格识别Chandra(88%)vs GPT-4o(70%),数学公式Chandra(80.3%)vs GPT-4o(74.5%)。它不仅能认字,还能理解文档结构——标题层级、多栏排版、嵌套表格、数学公式、手写批注、表单复选框,它都能识别出来,并且原样输出为带语义的Markdown、HTML或结构化JSON。更大的商业用途需要联系授权。A:官方支持90+语言,包括中文(简繁)、英文、阿拉伯语、日语、韩语、法语、德语等。
2026-04-01 08:32:30
789
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
656
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
623
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
647
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
648
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
544
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
591
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
610
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
523
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
534
原创 skill刚开源就斩获 1.7K Star!web-access让AI真正“上网“
实测中,我用 10 个子 Agent 同时调研小红书、微博、B站、GitHub、知乎等 10 个平台,一次性打开 100 个网页,CPU 占用始终在可控范围内,而每个子 Agent 的执行速度几乎和单独跑一个任务一样快。最离谱的是,有时候它还会用 WebSearch 去搜索小红书、微博这些平台的站内内容——就像用百度去搜朋友圈,除了瞎忙活,什么也搜不到。这就是为什么 web-access 能够处理那么多"没见过的场景"——它不是为特定场景设计的,而是为所有联网和浏览器操作场景设计的。
2026-03-31 08:36:48
543
电动车佩戴头盔检测数据集(TWHD)
2024-03-02
目标检测yolov系列半自动标注数据集代码
2024-03-01
python目标检测数据增强代码VOC格式转换为COCO格式代码
2024-03-01
darknet_windows.rar已编译直接可用yolo3
2020-02-27
细粒度用户评论情感分析数据集(2018-AI-challenger)
2019-03-23
Kaggle自然语言处理文本匹配竞赛华人第1名团队PPT与代码-深度学习与特征工程
2018-11-28
语义相似度任务-LCQMC数据集下载lcqmc.zip
2019-07-28
TensorRT-7.0.0.11.CentOS-7.6.x86_64-gnu.cuda-10.0.cudnn7.6.txt
2021-04-10
linux系统(Ubuntu)已编译darknet(cpu版)直接可用
2020-02-27
COCO API的安装包 cocoapi.zip 安装pycocotools
2021-09-10
GoogleNews-vectors-negative300.bin.gz
2019-07-20
Cube-IQ-使用方法_图文说明_使用步骤.docx
2021-05-05
Deep Learning for NLP with TensorFlow2.0.zip
2020-07-10
阿里巴巴机器智能技术精选合集.PDF
2019-12-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅