- 博客(269)
- 收藏
- 关注
原创 Anthropic 托管 Agent 平台上线后,测试对象开始从功能点转向运行系统
系统里有运行时,有状态,有权限,有外部工具,有多环境部署,也有自动修正和结果回流。模型下载、校验、加载、部署、回滚,这些环节如果没有明确的可信链路,问题就不只是“服务会不会挂”,还可能变成“生产环境是否引入了不可信执行风险”。如果只从行业资讯视角去看,最近这批AI更新内容会显得很杂:有平台更新,有模型模式变化,有框架治理,也有研究论文和端侧应用。这几天连续出现的这些更新,真正值得工程团队关注的,不是某个模型又换了一个名字,而是 AI 系统已经在运行时、交付链路、验证闭环和部署环境上同时发生变化。
2026-04-13 16:56:58
246
原创 测试工程师向上管理指南:如何高效汇报与落地技术目标
最近,一位测试开发学员在私教辅导中提出了她的困惑,也代表了许多测试工程师的真实心声。很多测试团队都会设定自动化覆盖率的目标,但在实际落地时却困难重重——功能测试任务繁重,自动化只能在深夜或周末“补课”,最终效果也常遭质疑。及时、透明的沟通反而能减少双方的猜测与焦虑,建立更稳固的合作信任。很多测试同学在周报或会议中,习惯于详细描述项目中遇到的各种问题,比如临时需求插入、测试时间紧张、环境不稳定等。例如,如果团队发现的缺陷中有50%是通过自动化手段发现的,就证明自动化是真正有效的。
2026-04-10 14:37:12
317
原创 Claude Code 一周烧掉一半配额?我从逆向工程中看到了 Agent 测试的致命盲区
更糟糕的是,像 Claude Code 这样,客户端可以单方面改变缓存策略,用户完全不知情。你看不到真实的思考深度(被 redact 了),看不到缓存是否命中(被静默降级了),看不到工具结果是否被截断(截断了也不告诉你)。当 Anthropic 在“追求极致体验”与“沉重推理成本”之间剧烈挣扎时,开发者需要的不是一个替自己做决策的黑盒,而是一个透明、可预测的杠杆。当 AI 工具开始在用户看不见的地方调整缓存策略来平衡自己的账本时,它牺牲的不只是几美金的 Token 费,而是整个行业的信任。
2026-04-10 14:15:30
322
原创 OpenClaw大版本更新之后,Agent开始向“系统级智能体”演化
你现在在测的系统,是一次性调用模型,还是一个会持续运行、不断演化的Agent系统?AI测试的核心,正在从“验证结果”,转向“约束系统行为”这类问题,本质上不是模型能力的问题,而是系统形态变了。当系统变成“持续运行的Agent”,测试对象也变了。AI正在从“被调用的能力”,变成“持续运行的系统”Agent正在从“能力调用”,变成“系统工程问题”没有Dreaming的Agent,本质是一次性工具。有些系统,已经不再是“你点一下,它回一句”。Agent不再是函数,而是持续运行的进程。
2026-04-10 10:23:04
346
原创 OpenClaw 技能到底去哪装?这 11 个平台帮你把坑踩完了
很多人把 Skill 当插件,这是不准确的。否则你迟早踩“密钥泄露 / 恶意调用”的坑。AI 用得好,是 Prompt 写得好。而 Skill,就是它的执行力来源。理由:中文 + 审核 + 成功率高。不是理论风险,是已经发生的。理由:覆盖面广,能拼工作流。
2026-04-09 17:13:38
338
原创 AI术语看不懂?这24个核心概念,帮你把AI底层逻辑一次讲清
这些词,已经从“研究论文”走进了“日常工作”。很多人卡在第一步: 不是不会用AI,而是根本不知道这些概念在说什么。可以理解为: AI不是按“句子”理解,而是按“碎片”处理。这篇文章,把AI里最核心的24个概念,全部拆开讲清楚。你不懂AI,不是因为不会用工具,而是听不懂“术语”。本质是一个“被海量数据训练过的预测系统”。AI不是一个工具,而是一套完整的工程体系。只做了预训练,还没有“被教做人”的模型。这是模型从“能用”到“好用”的关键一步。这也是很多AI“看起来很聪明”的原因。可自由使用、修改、部署的模型。
2026-04-09 14:25:58
353
原创 CLI为什么突然爆了?一文讲清 Skill、MCP、CLI 的真实关系
这背后是一个很现实的问题,AI要进入业务流程,就必须具备执行能力。很多人觉得这三者是同一类东西,其实不是,它们分别解决不同问题。Skill、MCP、CLI不是替代关系,而是协同关系。相比 UI 操作,CLI 更适合 AI 使用。AI 是怎么从“能聊天”,走到“能干活”的。Skill 的作用是把能力直接封装进 AI。可以理解为给 AI 增加某一类能力。可以理解为让 AI 能接入外部世界。AI可以直接参与流程,不再只是辅助。可以理解为让 AI 具备动手能力。对于 AI 来说执行成本更低。
2026-04-03 15:11:00
199
原创 多模态大模型 + 自动化测试:从截图到结构化用例的系统设计思路
当多模态能力进入测试链路后, “写用例”本身不再是核心竞争力, “设计 AI 流程”才是。如果只上传截图而无上下文,模型只能推断“表单结构”,无法推断业务规则。它能生成 60% 的基础用例。如果模型已经能理解页面结构,它能否参与测试用例的生成?视觉模型进入测试领域,不是概念展示,而是系统工程问题。因此从技术能力上,它确实可以参与 UI 测试设计。问题不在于“能不能生成”。如果输出是自然语言描述,无法自动入库。它的意义不在于“自动生成所有用例”。结构化输出,是工程可用的前提。避免把导出逻辑写进模型调用层。
2026-03-26 16:17:58
276
原创 从零开始构建你的第一个Claude Skill:手把手打造AI专属技能
今天这篇文章,我就手把手带你从零开始,搓一个属于你自己的Claude Skill。我用了大半年的Claude,说实话,最开始我觉得它就是个高级点的聊天机器人,虽然代码写得溜,但每次让它处理我那些特定格式的工作流时,它总是“失忆”——每次都得重新把规则贴一遍,特别烦人。说实话,自从我开始捣鼓Skill,我感觉Claude从一个“需要我不断调教的实习生”,变成了一个“招之即来的特种兵”比如我做的第一个Skill叫“API文档生成器”,只要我说“生成API文档”,它就不会再啰嗦,直接按照。
2026-03-26 15:44:34
346
原创 深夜技术对谈:当测试工程师面对“灵魂拷问”
我们的私教服务,不止于解答问题,更致力于培养解决问题的思维和能力——因为在这个时代,会思考的测试工程师,永远是最稀缺的人才。”老师的话语中透露出多年的架构经验,“自动化测试时,你可以直接验证这个变量的值,或者通过前端元素定位来间接验证。“这三种情况代表了系统的不同状态,”老师说,“特别是缓存穿透导致的所有请求直接打到数据库,可能引发雪崩效应,这是需要重点测试的灾难场景。”老师引入了一个高阶概念,“这就像图论中的路径查找,通过分析代码依赖关系和线上日志,构建接口调用关系图,然后基于这张图设计测试场景。
2026-03-26 14:53:11
212
原创 browser-use爆火:AI Agent接管浏览器,测试自动化正在被重构
它能让AI Agent直接操控浏览器。它并不是完全“脱离规则”的智能系统,底层仍然依赖浏览器自动化能力(如 Playwright),只是通过大模型把操作逻辑动态化了。特别是最后一点AI 能执行,但是否“执行正确”,仍然需要测试工程师定义标准。本质仍然是基于 DOM 获取信息,只是在上层通过模型做语义理解。但需要注意,这种调整是“概率驱动”的,而不是完全确定性的。AI 不再只是写代码,而是开始“直接干活”。AI 不再告诉你怎么做,而是直接把事情做完。流程不再固定,而是根据结果不断调整。
2026-03-26 10:36:28
203
原创 Django 模板变量与标签实战指南:90% 的 Django 新手都忽略了这几个细节
我们关注测试工程能力的系统化建设,包括 Python 自动化测试、Java 自动化测试、Web 与 App 自动化、持续集成与质量体系建设,同时探索 AI 驱动的测试设计、用例生成、自动化执行与质量分析方法,沉淀可复用、可落地的测试开发工程经验。学社围绕现代软件测试工程体系展开,内容涵盖软件测试入门、自动化测试、性能测试、接口测试、测试开发、全栈测试,以及。在技术社区与工程实践之外,学社还参与测试工程人才培养体系建设,面向高校提供。Django 模板不仅是 HTML 模板,而是一个完整的。
2026-03-25 15:32:46
374
原创 测试小白的第一课:从零安装OpenClaw,亲手跑通第一个AI智能体
说实话,我第一次接触OpenClaw的时候,光是安装就折腾了一整天。作为一个过来人,我踩过的坑,就不想让你再踩一遍了。今天这篇教程,我会手把手带你从零开始,把OpenClaw装好,然后跑起来第一个智能体。如果提示“命令未找到”,别慌,大概率是虚拟环境没激活,或者pip安装路径没加进环境变量。申请的时候要绑卡,但新用户一般有5美元的试用额度,够你玩好一阵子了。我第一次跑通的时候,看到它真的去调了那个函数,然后把结果组织成一段人话回复给我,说实话还挺有成就感的。这个看你在哪了,懂的都懂,解决方案就不展开了。
2026-03-25 15:10:05
359
原创 DeepSeek落地实战:测试开发不再写用例,而是设计“生成系统”
我们关注测试工程能力的系统化建设,包括 Python 自动化测试、Java 自动化测试、Web 与 App 自动化、持续集成与质量体系建设,同时探索 AI 驱动的测试设计、用例生成、自动化执行与质量分析方法,沉淀可复用、可落地的测试开发工程经验。学社围绕现代软件测试工程体系展开,内容涵盖软件测试入门、自动化测试、性能测试、接口测试、测试开发、全栈测试,以及。1、统一字段命名 2、保证描述一致性 3、用文本替代复杂图形 4、补齐边界与异常场景。1、输入规范化 2、语义解析 3、规则约束 4、结构化输出。
2026-03-25 14:09:41
243
原创 AI写测试用例为什么越来越不靠谱?ChatGPT、Claude、DeepSeek 都解决不了这个问题
当一个工具真正进入生产环境时,人类往往需要构建一整套系统来管理它、约束它、扩展它。未来真正有竞争力的测试工程师,不只是会使用 AI,而是能够。为了让 AI 输出标准测试用例,通常需要写很长的 Prompt。真正让 AI 有价值的,其实不是 Prompt。如果你只是使用 AI,很快会被替代。AI 在软件测试领域的发展,就是一个典型例子。在低代码平台中搭建 AI 应用,其实非常简单。但在真实企业环境中,很快会遇到几个问题。|用例ID|测试步骤|预期结果|,是一个面向软件测试爱好者的技术。
2026-03-13 10:52:23
396
原创 公开课 | 基于OpenClaw打造微信自动化智能体
OpenClaw是一个功能强大的开源AI智能体框架。你可以将它理解为一个不知疲倦的“大脑”,通过我们提供的技能模块,它可以连接你的各种软件和平台,自动执行预设任务。它的核心目标是:将你从重复性劳动中解放出来,让你专注于更有创造性和战略性的工作。基于OpenClaw打造微信自动化智能体公开课来啦!课程时间:2026-03-12 20:00。
2026-03-12 15:09:45
25
原创 Claude Skills 官方指南发布:AI Agent开发进入“能力模块时代”
Anthropic 在文档中提出了三个核心理念。Skills 不就是 Prompt 模板吗?Anthropic 总结了五种常见设计模式。Skill 不会一次性加载全部内容。如果只是这么理解,那就低估它了。验证 Skill 是否正确触发。都可以嵌入 Skill 中。
2026-03-12 14:20:26
318
原创 一个人,也能跑系统:我用 OpenClaw 搭起的 20 条自动化流水线
我们关注测试工程能力的系统化建设,包括 Python 自动化测试、Java 自动化测试、Web 与 App 自动化、持续集成与质量体系建设,同时探索 AI 驱动的测试设计、用例生成、自动化执行与质量分析方法,沉淀可复用、可落地的测试开发工程经验。在技术社区与工程实践之外,学社还参与测试工程人才培养体系建设,面向高校提供测试实训平台与实践支持,组织开展 “火焰杯” 软件测试相关技术赛事,并探索以能力为导向的人才培养模式,包括高校学员先学习、就业后付款的实践路径。真正缺的,往往不是模型能力。
2026-03-11 16:36:03
281
原创 AI短视频爆火新玩法:一套提示词,1分钟复刻电影名场面!(附完整模板)
不用拍摄、不用演员、不用剪辑。只要提示词写得好,AI就能自动生成视频。下面给大家整理了一些目前比较火的。成功企业家 屌丝逆袭代表 气场强大。影视复刻类视频非常容易获得流量。AI生成视频的效率远超传统拍摄。很多人做短视频的问题不是不会剪。
2026-03-11 15:08:08
534
原创 就业辅导 | 如何写技术简历让面试官眼前一亮
我们关注测试工程能力的系统化建设,包括 Python 自动化测试、Java 自动化测试、Web 与 App 自动化、持续集成与质量体系建设,同时探索 AI 驱动的测试设计、用例生成、自动化执行与质量分析方法,沉淀可复用、可落地的测试开发工程经验。在技术社区与工程实践之外,学社还参与测试工程人才培养体系建设,面向高校提供测试实训平台与实践支持,组织开展 “火焰杯” 软件测试相关技术赛事,并探索以能力为导向的人才培养模式,包括高校学员先学习、就业后付款的实践路径。是不是今年行情不好?是不是企业要求太高?
2026-03-11 14:07:39
31
原创 AI系统功能测试怎么做?从“正确性断言”到“上下文边界”的测试范式转移
本文围绕 AI 系统功能测试展开,从测试目标、能力边界、上下文限制、多轮一致性等角度,系统拆解 AI 功能测试的核心方法。在视频案例中,构建了一个简易 AI 智能助手,用于模拟助学贷款网站的智能客服。这类场景型 AI 应用,与通用大模型应用(例如 豆包)是不同的。模型在一次对话中能“记住”的内容大小,通常以 token 计量。但 AI 系统不是规则驱动,而是概率生成。但在 AI 系统中,这是必须验证的功能项。是否编造不存在的政策?这不是逻辑 bug,但属于严重功能风险。这是 AI 系统特有的功能安全问题。
2026-03-11 11:12:44
375
原创 免费用openclaw小白白嫖教程,一键安装小龙虾,无限token,再也不用担心用不起了
API密钥:sk-GyX66j2M7ohdzry8z1MVGZxwbzn5SkbWVBYFCw8qiEnb5We64Kt0n5xpek6R3z6l。打开https://oneclaw.cn 根据你的系统,选择对应的版本下载安装即可!此版本无需命令行,一键安装,1 分钟上手!初次安装填写完成后就可以点击保存并继续了!验证成功后就可以使用龙虾了!接口地址:https://opencode.ai/zen/v1。如果你想申请属于自己的key,请按如下步骤申请!模型id:minimax-m2.5-free。
2026-03-11 10:38:41
716
原创 夜话测试管理:一位测试负责人的深夜思考与破局之道
今晚,我们记录下这段充满技术思考与管理智慧的交流,希望能给同样在测试管理道路上探索的你一些启发。我们相信,通过一对一的深度交流,结合具体场景的实战指导,能够帮助测试管理者更快成长,更好地应对职场中的各种挑战。优秀的测试管理不仅仅是保证交付质量,更是在资源约束、时间压力、组织复杂度的多重限制下,找到最优解的艺术。从当前交付中最棘手的问题出发,反推在职能或工具层面需要怎样的改进,这样的投入才最有价值。配置构建工具,让每次生产代码的构建都在工作群中自动通知,包含更新的服务信息,确保测试团队第一时间知晓变更。
2026-03-10 15:46:52
177
原创 OpenClaw × ListenHub 实战拆解:如何给 Agent 一键赋予语音与画图能力?
OpenClaw 提供调度框架。ListenHub 提供生成能力。很多人把 OpenClaw 当成一个“会自动干活的聊天机器人”。OpenClaw 本身并不负责生成语音或图像。把“某件事的完整流程”封装成一个可触发的能力模块。这本质上是一个“内容重构 + 语音合成”的流水线。这已经不再是简单生成文本,而是多模态协作。一个可持久运行的 Agent 调度框架。OpenClaw 是高权限 Agent。调度能力 × 工具能力 × 多模态能力。Agent 越强,越需要控制边界。一个可自动运行的创作系统。
2026-03-09 17:19:40
162
原创 Claude Code:把 AI 从“聊天工具”推进到可执行 Agent 系统
它具备完整的工程属性: 常驻项目目录、读写文件、执行命令、维护长期上下文、调用外部工具。它并不是网页版 Claude 的增强版本,也不是“更擅长写代码的聊天机器人”。一个常见失败模式是: 让一个 Agent 什么都干,结果什么都不稳定。IDE 的价值并不只是“更方便”,而是把 Agent 的输出沉淀为。Agent 强不强,不取决于模型有多大,而取决于你接入了多少系统。把 Agent 从“概念演示”,推进到可运行、可维护的工程系统。从这一刻开始,AI 不再只是“给建议”,而是。
2026-02-27 14:51:16
432
原创 Django 精准路由匹配:从 path 到 re_path 的正则进阶
当业务规则变得严丝合缝时,re_path 才能让路由真正“严丝合缝”。只能在视图里做逻辑判断,但这属于“后置修补”,不是优雅设计。理解这一层,你的 Django 路由体系就已经进入可控状态。如果只是匹配整数、字符串,转换器已经足够。当你开始对 URL 的“精度”提出要求时,普通的。此时,普通 path 转换器已经无法满足精度要求。转换器只能判断“是否是整数”,但无法控制位数。这是一种典型的“精确优先,宽松兜底”的结构。实际项目中,这种组合是非常常见的设计方式。这是 path 转换器无法实现的精准区分。
2026-02-27 14:00:10
518
原创 新晋测试负责人遇考核难题,私教老师如何巧妙破局
这种考核导向下,团队出现了一种微妙的现象:开发人员会私下请求测试人员不要正式提交发现的问题,而是“偷偷解决”,以免影响双方绩效考核。眼前的绩效考核表,看似条理清晰,却让他隐隐感到不安——团队氛围微妙,推诿甩锅渐成风气,而这一切,似乎都与这套考核方式有着千丝万缕的联系。专业的私教服务,提供的不仅是具体问题的解决方案,更是解决问题的思维方式、职场处世的智慧分寸。而这之间的平衡艺术,往往需要经验的指引和专业的辅导。软件质量是整个研发团队的责任,测试团队是质量的捍卫者和倡导者,但不应该是质量的唯一责任人。
2026-02-27 11:08:52
334
原创 OpenAI 官宣弃用 SWE-bench Verified:代码能力“金标准”为何被撤?测试工程师该关注什么
给模型真实 GitHub Issue,让模型修复代码并生成 patch,通过测试验证修复是否成功,从而衡量模型在真实工程场景中的代码能力。OpenAI 弃用 SWE-bench Verified,并推荐使用更严格的 Pro 版本,本质上是一次评估体系升级。在抽查任务中发现,相当比例的失败案例,并不是模型无法修复问题,而是测试本身存在不合理设计。这条资讯对测试工程师的价值,不在于模型排名变化,而在于三个信号。技术成熟阶段的一个标志,是能够承认标准的不足,并主动升级。
2026-02-27 10:10:25
573
原创 2026 就业有多难?想破局,一步到位;先上课,后支付!
AI 不是玩具,而是提升效率的工程工具: 用智能体处理重复任务、生成用例草稿、辅助分析日志与缺陷归因,把效率拉开差距。这不是“噱头”,而是一种更像学徒制的培养方式: 我们承担培养成本,你用就业结果负责。你不仅会写用例,还要会把用例“跑起来、管起来、可视化起来”。用企业真实标准倒推学习体系,让你毕业时能拿出“工程证据”。你学到的是“底层能力”,所以通道会变多,而不是更窄。企业招聘偏实战、偏交付。你把钱押在结果上,而不是押在“营销承诺”上。这条断层,才是 2026 的就业困局。不是你不行,是路径设计错了。
2026-02-26 16:21:37
445
原创 Claude Skill 官方指南发布:能力模块化正在改变大模型工程结构
最近,Anthropic 发布了一份 30 多页的 Skill 创建指南,系统讲解如何为 Claude 构建自定义能力模块。当 Skill 混乱时,调度逻辑会指数级膨胀。第一,能力沉淀成为可能。重复逻辑不再写 Prompt,而是封装成 Skill。第一,Skill 是模型能力的结构化延伸。这不是简单的 API 更新说明,而是一份偏工程体系化的能力设计手册。Skill 的定位,恰好在 Tool 与 Agent 之间。这一步,本质是在为大模型建立“能力模块系统”。Skill 的结构化,会带来工程体系的变化。
2026-02-26 15:01:26
309
原创 Qwen3.5 四款中量级模型发布:当 35B 遇上 235B,模型规模还重要吗?
过去几年,大模型竞争的核心逻辑是“参数越大越强”。如果 35B 在数据过滤、样本质量、RL 策略上明显优化,那么能力反超是合理的。同时发布的 Flash 版本默认支持百万级长文本,上下文能力进一步拉升。Flash 版本默认支持百万级上下文,这是工程层面更值得关注的一点。这不是小幅优化,而是“体量更小,效果更强”。当“调校能力”提升,小模型的效率会被放大。当这些因素提升,小模型也能具备强竞争力。参数规模代表模型容量,但不是能力本身。真正要验证的是稳定性,而不是理论数字。这不是参数失效,而是训练范式升级。
2026-02-26 14:48:10
493
原创 手把手教你在预训练权重中嵌入多 Token 预测加速
在某些情况下,模型可能可以预测更多的 Token,而在另一些情况下,则只能预测少数 Token。这是一个关于模型结构改变和权重的可视化,展示了如何从原始的单 Token 预测头扩展到多个 Token 预测头,并如何初始化新添加的权重部分。这是一个可视化的生成过程,对比了自回归生成和 MTP 生成的步骤,突出了 MTP 如何通过并行预测多个 Token 来减少迭代次数。,并进行多个 epoch 的训练。要实现 MTP,最直接的方法是修改模型的输出层,使其能够同时输出多个 Token 的预测。
2026-02-26 11:29:20
341
原创 代理编程全球第一之后:GLM-5 会不会改变自动化与 Agent 测试范式?
这篇文章从工程与测试视角,拆解 GLM-5 的关键技术演进,以及它可能带来的方法论变化。发布的 GLM-5 参数规模达到 7440 亿,同时在代理编程能力测试中位列全球第一。当模型具备这种能力后,它不再只是“生成代码”,而是可以参与自动化流程。公开信息显示,GLM-5 在代理编程能力上取得全球第一的成绩。当模型开始具备稳定的代理编程能力,它会逐步进入自动化体系核心。你的自动化与测试体系,是否准备好适配这种能力结构的变化。训练架构的升级,直接决定模型在真实工程环境中的表现。
2026-02-26 10:04:22
593
原创 我用AI写自动化测试脚本一周后,同事以为我偷偷请了个外援
那一周,手工测试的同事反馈,他们发现的几个漏测场景,AI设计的用例里其实都覆盖了——只不过开发还没实现,所以脚本跑通了,手工跑就挂了。提示词要具体“帮我写个登录测试”和“帮我用pytest写登录接口的测试,要测密码错误、账号锁定、验证码错误,用参数化实现,断言状态码和错误信息”——后者效果明显好。“用pytest写一个用户注册接口的测试脚本,接口地址/api/register,POST方法,要测正常注册、用户名重复、邮箱格式错误、密码太短、必填字段缺失这几种情况,用参数化实现。准确说,是AI辅助测试开发。
2026-02-25 14:55:17
561
原创 别手写断言了!Copilot for Testing 让我提前两小时下班
而且很多断言长得都差不多——assert response.json()[“code”] == 200,assert response.json()[“data”][“status”] == “SUCCESS”——写的时候手指头都麻了。上个月就有这么一回,一个优惠券接口返回了错误的面额,但因为脚本里只断言了状态码,没断言金额字段,这bug愣是混到预发环境才被发现。我甚至想,如果团队能建一个“断言知识库”,把常见的业务规则、字段校验逻辑都存进去,再让AI去检索、学习,那以后写断言可能真的不用动手了。
2026-02-25 14:11:57
536
原创 2026了,还在手动写测试用例?隔壁团队已经用AI提效50%
他们用的是自己搭的工作流,把公司内部的业务文档、历史缺陷、需求模板都喂给AI做知识库,AI才能生成符合公司规范的用例。AI不懂你的系统长什么样,它只能根据文档“逻辑推理”,但文档里不会写“前端已经限制了什么”、“历史上哪些场景出过事”、“这次开发改了哪些代码”。老王的做法是:先让AI列测试点,review一遍,把漏掉的重点场景补充进去,再让AI生成用例。找了个最近的需求文档,扔给ChatGPT,用老王的提示词模板:“列出所有测试场景,按功能、异常、边界、组合分类。走,下午没事的话,我给你看看怎么弄的。
2026-02-25 10:20:54
602
原创 接口测试经典面试题:Session、cookie、token有什么区别?
HTTP是一个没有状态的协议,这种特点带来的好处就是效率较高,但是缺点也非常明显,这个协议本身是不支持网站的关联的,比如https//ceshiren.com/和https//ceshiren.com/t/topic/9737/7这两个网站,必须要使用别的方法将它们两个关联起来。当用户访问带cookie浏览器时,这个服务器就为这个用户产生了唯一的cookie,并以此作为索引在服务器的后端数据库产生一个项目,接着就给客户端的响应报文中添加一个叫做Set-cookie的首部行,格式为kv。...
2022-07-21 09:21:26
642
原创 技术分享 | 实战详解接口测试请求方式Get、post
技术分享 | 接口测试常用代理工具原文链接在接口测试中,有各种功能强大的代理工具,比如 Charles 、 Burpsuite 、 mitmproxy 等等。这些代理工具可以帮助我们构造各种测试场景、以及更好的完成测试工作。下面的介绍以 Charles 为主。Charles 是一款代理服务器,可以截取请求和响应达到分析抓包的目的,且支持多平台,能够在 Windows,Mac,Linux 上使用。Charles 上边是菜单栏,左边记录了访问过的每个网站/主机,右侧显示信息细节。Charles 可以存储各种网络
2022-07-20 11:10:16
701
原创 技术分享 | 接口测试常用代理工具
技术分享 | 接口测试常用代理工具原文链接在接口测试中,有各种功能强大的代理工具,比如 Charles 、 Burpsuite 、 mitmproxy 等等。这些代理工具可以帮助我们构造各种测试场景、以及更好的完成测试工作。下面的介绍以 Charles 为主。Charles 是一款代理服务器,可以截取请求和响应达到分析抓包的目的,且支持多平台,能够在 Windows,Mac,Linux 上使用。Charles 上边是菜单栏,左边记录了访问过的每个网站/主机,右侧显示信息细节。Charles 可以存储各种网络
2022-07-13 17:30:09
558
原创 使用postman发送请求
使用postman发送请求作为测试,要有对接口进行测试的能力。在接口测试中,常用的工具是 postman。postman 是一个强大的接口测试平台,具有体验友好的可视化界面,在工作中常常作为研发的接口调试工具,以及测试的手动接口测试工具。可以进入 postman 官方网站自行选择系统下载安装:下面使用 postman 发送一次 get 请求。使用学院官方演练地址 ,进行演示完成以上操作,就实现了Post请求,大家可以练习操作一下,在练习过程中遇到什么问题,都可以留言给我哦~更多技术文章分享...
2022-07-11 09:43:16
2388
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅