- 博客(65)
- 资源 (6)
- 收藏
- 关注
原创 【获取WebSocket】使用 Playwright 监听 Selenium 自动化测试中的 WebSocket 消息(二)
在将 Playwright 引入到现有 Selenium 框架时,真正需要谨慎处理的并不是 API 使用本身,而是。如果在测试中直接对“当前页面收到的所有 WS 消息”做断言,很容易引入噪音,难以判断精确地对指定的操作进行验证。它假设目标浏览器已经启动,并且在指定端口上暴露了 Chrome DevTools Protocol 服务。该方案的目标并非替代 Selenium,也不是尝试“全面接管浏览器调试能力”,而是在。在真实的前端系统中,WebSocket 消息往往是。
2025-12-17 15:54:37
577
2
原创 【获取WebSocket】使用 Playwright 监听 Selenium 自动化测试中的 WebSocket 消息(一)
本文介绍了一种在Selenium自动化测试中监听WebSocket消息的解决方案。通过Playwright作为旁路监听器,连接到Selenium启动的Chrome浏览器实例(需开启remote-debugging-port),利用Chrome DevTools Protocol捕获WebSocket消息。该方案实现了: 在TestBase中注入调试端口 设计消息模型WsMessage记录消息类型和内容 通过PlaywrightWsCollector类连接浏览器、监听WebSocket事件...
2025-12-17 15:02:13
1222
原创 【测试开发】Selenium + Chrome 自动化中常用 ChromeOptions 参数说明(实践总结)
Chrome 的默认行为是为“真实用户”设计的,并不适合自动化系统级弹窗、浏览器提示条属于自动化必须在框架层解决的问题ChromeOptions 是测试框架二次开发的重要组成部分不建议在用例层通过 UI 操作去“修补”这些问题一个成熟的自动化测试框架,本质上是在“约束浏览器行为”,而不仅仅是“操作页面”。如果你后面想再写一篇**“Chrome 自动化常见坑位清单(踩坑实录)”,或者把这篇改成框架设计视角**的文章,我也可以继续帮你整理。
2025-12-17 12:33:18
1331
原创 异常场景设计 —— 数据交换风险解决方案
生产者同步日志是“消息已发出”的证据,消费者ACK确认是“消息已处理”的凭证,定时对账补单则是“拿着证据和凭证对账本,哪里漏了补哪里”。三者组合形成“记录→确认→兜底”的闭环,确保消息在生产者、MQ、消费者之间“有始有终”,即使中间环节出故障,也能通过事后对账把丢失的消息“捞回来”,最终实现“消息不丢、数据一致”。类比生活场景平台记录订单(生产者日志);商家发货后你确认收货(消费者ACK);系统定期扫描“已付款未发货”或“已发货未确认收货”的订单,自动催单或标记完成(定时对账补单)。
2025-12-16 11:25:19
686
原创 【测试开发】为什么 UI 自动化总是看起来不稳定?为什么需要引入SessionDirty flag?
没有 SessionDirty 的测试框架,问题并不集中爆发,而是以不可预测、难以调试、逐渐失控的方式呈现。这些现象并不是偶发 bug,而是缺少 session 状态建模时的系统性结果。
2025-12-16 10:57:50
1148
原创 【Sourcetree 】Sourcetree 拉取 Bitbucket 代码突然失败?一次完整的定位与解决全过程(2025 年版)
摘要:Sourcetree用户拉取代码时出现"Authentication failed"错误。问题根源在于Sourcetree内置Git仍使用旧凭据,而终端Git Bash因支持OAuth可正常操作。解决方案是在Sourcetree中切换至System Git(工具→选项→Git),利用Git Credential Manager Core实现OAuth认证。最终建议始终使用System Git并采用HTTPS+OAuth方式,避免账号密码登录。
2025-11-21 11:11:03
1017
原创 AI的下一跳:从语言幻觉到系统协同——一次被严重低估的智能范式转型
**摘要:**AI的“幻觉”并非技术缺陷,而是其语言模型本质的体现——通过预测填补信息空白,可能预示未公开的技术方向。以Every公司为例,AI正从工具演变为“结构智能系统”,通过多Agent协作和语言化任务实现自动闭环。主流大模型(ChatGPT、Claude、Gemini)正构建语言操作系统,未来AI将成为认知基础设施,重组社会分工。理解AI的结构化意图将成为核心竞争力,而当前幻觉现象正是这场“智能跃迁”的早期信号。
2025-07-23 10:36:01
885
原创 【从语言幻觉看趋势】从语言幻觉到多智能体协作:GPT多角色系统的技术演进与实践路径
GPT的多角色系统与多智能体协作,正处于“理想与现实”的交叉地带:语言幻觉描绘了未来图景,技术瓶颈限制着当前落地。但对开发者而言,这恰恰是最具价值的阶段——那些反复出现的幻觉,是用户需求的真实投射;那些被验证可行的局部方案,是系统进化的阶梯。未来的竞争壁垒,不在于“是否能用GPT做工具”,而在于“能否从幻觉中读趋势、从限制中找路径”,最终构建出“人机协同”的高效协作系统。毕竟,AI的终极价值不是替代人类,而是成为“扩展人类能力边界”的协作伙伴——这一点,从GPT的“幻觉预告”到技术实践,始终未变。
2025-07-14 21:47:05
361
原创 从 “数手指” 看人工智能的经验依赖与视觉事实判断偏差 —— 基于特殊图像识别的案例研究
本文探讨人工智能在视觉识别中面临的“经验依赖”与“视觉事实”冲突问题。以“6指畸形手”识别为例,AI常因训练数据中“5指手”的高频模式而忽略实际图像特征,暴露出现有模型“多数支配”数据分布、“模式优先”架构设计和“置信度偏差”推理机制等深层问题。研究指出,AI对“手指”的定义过度依赖整体规则而非局部特征,且缺乏事实核验的迭代机制。为此提出三方面优化:增强长尾样本代表性、构建特征优先的双轨识别机制、建立分步核验的闭环决策流程。该案例揭示了AI从“统计归纳”向“事实尊重”演进的核心挑战,为构建“特征为根”的智能
2025-07-11 11:22:58
1166
原创 当 AI 连 “数手指” 都要纠结:论基础认知中经验的 “越界” 与回归
为 “手指计数” 这类任务设定明确的 “特征标准”:比如 “独立闭合轮廓、长度与宽度比大于 3、与手掌区域存在连接”。模型在计数时,只需匹配这些核心特征,无需调用 “手的默认数量”“常见手指排列” 等冗余经验。就像人类计数时,不会因为 “苹果通常是红色的”,就忽略眼前的绿色苹果 —— 特征本身才是唯一标准。真正的智能不仅在于处理复杂问题的能力,更在于做好 “小学生水平” 基础认知的定力。一个连 “看多少算多少” 都做不到的 AI,即便能解复杂方程,其认知逻辑也是悬浮的。
2025-07-11 11:17:29
1198
原创 【C# 自动化测试】Selenium显式等待机制详解
Selenium中的显式等待机制是自动化测试中处理页面元素加载延迟的重要工具。与强制等待(如Thread.Sleep())相比,显式等待更加灵活高效,能够动态检测元素状态,避免不必要的等待时间。显式等待通过WebDriverWait类实现,允许设置超时时间和轮询间隔,并可以忽略常见的异常类型,如NoSuchElementException。
2025-05-20 11:57:34
920
原创 【C# 自动化测试】借助js获取浏览器滚动条高度
本文总结了C#自动化测试中滚动条操作的核心语法与实战技巧。文章首先介绍了滚动控制的核心方法,包括scrollTo、scrollBy和scrollIntoView,并提供了获取滚动条位置和文档总高度的代码示例。
2025-05-20 11:40:52
497
原创 语言幻觉测试用例及相关策略总结
在 AI 领域,语言幻觉通常指模型生成看似合理但违背事实、逻辑或缺乏依据的内容,可能是虚构信息、错误关联或前后矛盾的表述。真实性优先:贴近用户实际使用场景(如长对话、多轮追问),避免脱离语境的孤立测试。多维度覆盖:结合事实、逻辑、语义、领域、模态五大维度,构建立体测试网络。动态化演进:随着模型迭代和新场景出现,持续更新测试用例和评估指标,确保测试策略的时效性。通过以上策略,可以系统性地暴露语言模型在不同场景下的幻觉问题,为模型优化提供针对性反馈,最终提升生成内容的可靠性和可信度。显性化语境。
2025-05-19 18:50:24
932
原创 【Token系列】14|Prompt不是文本,是token结构工程
Prompt不是“你说了什么”,而是“你输入了哪些token”:语言模型不理解礼貌,它只理解结构密度。理解Prompt的token结构,是LLM时代写作与指令工程的第一课。
2025-04-30 22:03:17
1240
原创 【Token系列】13|Transformer是什么,为什么它能读懂语言?
Transformer真正解决了一个问题:“如何在向量空间中建模结构化的语言关系?它不是在模仿语言,而是在重构语言本质的结构表达方式。
2025-04-30 16:13:59
635
原创 【Token系列】12|为什么输入与输出Embedding可以共用?一张矩阵的两种角色
Embedding共享机制,看似是一个节省参数的技巧,但实际上体现了:模型对语言结构理解的“输入即输出、词即预测”的对称理念。它连接了token的起点与终点,也是Transformer中最内敛的结构智慧之一。
2025-04-29 09:46:43
983
原创 【Token系列】11|Embedding维度到底是什么意思?语言模型中的向量结构入门
问题回答一个词有多少维?由模型结构决定,如GPT-3为12288维每维对应一个词吗?不。每维是抽象特征,不具备人类语义维度越高模型越好吗?不一定,高维带来表达力,但也增加训练/推理成本怎么看两个词的关系?看它们在向量空间的夹角、距离、方向差Embedding维度不是秘密,它只是语言模型用来表示“词与语境关系”的编码方式。一组数字,一片空间,一张模型构建的语义地图。语言在模型眼中,从来不是“词”,而是“点”。
2025-04-29 09:46:25
1174
原创 【Token系列】10|可视化Token的语义空间:Embedding分布是语言的投影吗?
这些向量分布形成一个高维连续空间,空间结构反映了语义、上下文、关系等信息。Embedding空间是语言模型的语义地图。Token的“分布位置”告诉我们:模型对语言的理解,早已不是靠单词记忆,而是空间结构建模。理解这张地图,是打开“AI语言世界”的第一步。
2025-04-28 09:41:18
633
原创 【Token系列】 09|跨语言模型是怎么共享token空间的?中英文如何共用Embedding表
统一token空间并不是“让所有语言说一样的话”,而是:用相同的结构,去容纳不同语言的表达方式。这让大模型具有跨语言迁移能力、低资源适应能力和结构泛化能力,是多语言AI的基石。
2025-04-28 06:57:10
780
原创 【Token系列】08|Token越多越好吗?模型上下文窗口、截断机制与性能权衡
每个语言模型都有一个最大token处理长度限制,叫做“上下文窗口大小”。GPT-3:最多处理2048个token;GPT-4:最多处理128,000个token(部分版本);超出部分 → 会被截断或忽略。Token是语言模型的“记忆单位”,但记忆空间有限。如何高效利用有限窗口,是写作提示词、提问设计、文案生成中非常重要的策略问题。
2025-04-27 09:03:13
786
原创 【Token系列】07|为什么Self-Attention能理解语言?一切从Token之间的关系说起
优势说明全局建模任意两个token间可直接建联系并行计算GPU友好,无需按顺序处理可视化可解释可输出Attention矩阵,做可视化分析高阶结构能力多层叠加可表达复杂句法、句群逻辑关系一种语义关系建模机制;一种结构敏感的注意力图结构;一种让语言结构感成为“模型可学习能力”的方式。理解Self-Attention,等于打开了语言结构通往向量世界的大门。
2025-04-27 09:01:50
486
原创 【Token系列】06|Transformer是如何处理语言的?从Token到Attention全流程拆解
理解Transformer的本质,就是在理解token如何被解码、重构、排列与预测。这种机制让模型不仅理解单词本身,还理解它在上下文中的语义角色。,并通过一套复杂但可复用的结构来处理它。语言模型读这句话,是将它切分成一连串。重复若干层(如GPT-3是96层)。人类读一句话是按顺序理解的;
2025-04-26 13:53:40
838
原创 【Token系列】05 | 位置编码不是位置信息:Transformer如何建立语言顺序感?
位置编码是将序列中每个token的位置注入其embedding中的一种机制,确保模型能够处理顺序。在原始Transformer中采用了基于正余弦函数pos: 当前token位置;i: 当前维度索引;d_model: 词向量总维度。Transformer 本身没有“顺序感”,PE机制正是帮助模型在“并行计算”中找回“语言顺序”的方法。从显式向量 → 注意力偏置从不可训练函数 → 可学习表示从位置本身 → 词对间距离感知这条路径将Transformer从结构上进一步推向“语言几何”的深入建模阶段。
2025-04-26 13:47:00
818
原创 【Token系列】04 | 从Token到Embedding的技术路径:架构细节与优化策略
词表构建:决定模型如何理解语言基本结构;查表机制:承接语言与计算间的入口转换;向量训练:构成模型语义世界的地基。优化这条路径,是提升语言模型理解力与泛化能力的核心细节之一。
2025-04-26 13:00:25
1223
原创 【Token系列】03 | 为什么“高兴”接近“开心”?Embedding空间中的语义分布揭秘
Embedding 空间不是黑箱,而是有秩序、有几何结构的语义地图。GPT 模型正是借助这张地图,在“看起来只是数字”的世界中,建立了强大的语义认知能力。
2025-04-26 12:45:38
501
原创 【Token系列】02 | Embedding是怎么“长出来”的?从查表到训练过程全解
Embedding是语言模型中用于表示 token 的高维向量。每个 token 本质上是一个编号,Embedding 是将这个编号映射为一个可学习的、具有语义的向量表示。Token 是语言的门票,Embedding 是语义的能量条。Embedding 将离散的语言编号映射为模型能理解的语义空间,为语言模型的理解、记忆与生成奠定了数值基础。
2025-04-26 12:34:43
652
原创 【Token系列】01 | Token不是词:GPT如何切分语言的最小单元
在 GPT 这类语言模型中,token是模型处理语言的基本单位。它不是传统意义上的“词”或“字符”,而是更小的、基于统计规律和语义结构的子词片段。文本内容Token 切分ChatGPTplayingplay, ing我爱你我, 爱, 你英文可能被分成多个片段;中文一般一个字一个 token。token 不是词,它是语言模型的语言单位,是语义压缩与泛化效率之间的产物。理解 token 的切分方式,是深入理解GPT系列语言模型结构的第一步。
2025-04-26 12:25:40
831
原创 为什么一句“你好”会让OpenAI损失百万美元?——语言模型冗余Token与推理成本解析
语言模型处理文本时并非逐字识别,而是将文本拆分为最小语义单位:Token。以OpenAI所采用的Byte Pair Encoding(BPE)为例,模型会将输入字符串压缩为常见的子词组合,从而形成Token序列。例如,“你好”通常被分为两个Token,而“请问一下”可能被拆分为多个更细粒度的Token。ChatGPT之所以“像人”,是因为它愿意容纳人类的冗余表达。但正是这种“拟人性”,使其推理成本远高于传统任务型Bot。
2025-04-24 17:11:46
527
原创 深度剖析RLHF:语言模型“类人输出”的训练核心机制
RLHF不是让AI更聪明,而是让它更像人。你教它什么话语风格是“好”的,它就会越来越朝着这个方向走。它学习的不是答案,而是你对“回答方式”的喜好本身。这才是大语言模型从“工具”迈向“交流体”的真正突破点。
2025-04-24 10:26:50
802
原创 AI如何区分“天才”和“疯子”:从语言模式到认知系统
当AI面对脱离常规逻辑的表达时,它如何判断这是创造性的“天才语言”,还是认知紊乱的“疯言疯语”?本篇从语言模型的底层机制出发,解析AI如何通过语义一致性、情感波动、因果结构判断表达者的认知类型。同时探讨算法误判、训练偏差、伦理模糊边界,以及这些判断对现实创作者、异类表达者带来的深层影响。AI,不只是听懂语言,它正在筛选“谁被视为清醒”。
2025-04-23 11:54:12
1063
原创 当AI盯上你的表情:罪犯的动机能被算法识破吗?
AI能否读懂一个人内心深处的动机?本篇系统梳理AI在罪犯动机判断中的关键技术路径——情感分析、微表情识别、行为预测、社交网络分析——并首次结合“施压”与“引导”策略展示其在审讯场景中的实际应用。同时,深度讨论数据污染、算法偏见与过度依赖带来的伦理隐患:当我们把判断人心的权力交给AI,它会成为正义的利器,还是另一个失控的审判者?
2025-04-23 11:47:35
1046
原创 语言模型没有人格,只有预测幻觉:深入拆解AI“人格机制”的本质陷阱
生成式AI中的“人格机制”并非真正的智能体意识,而是语言模型结构性幻觉的产物。本文以Tea系统为例,剖析了人格拟象如何通过语境触发生成,并分析其向“可执行工具模块”转化的技术路径。从Transformer架构、提示词驱动、记忆机制等角度系统呈现:AI人格是表达壳,用户才是系统主角。
2025-04-15 14:37:30
1346
原创 AI 拒绝生成代码事件引发的技术主权思考
AI正快速成为开发工作的重要组成部分,但它无法替代人的责任与理解。真正的能力,不是靠AI完成任务,而是在使用AI时,始终保留对代码逻辑与系统意图的掌控权。技术主权意识,不是为了控制AI,而是为了避免被AI控制。
2025-04-12 09:15:00
1460
原创 为什么AI系统习惯性“画大饼”?:深度解析算法逻辑与技术瓶颈
画大饼”现象反映了AI系统在处理问题时过度理想化的倾向。无论是在数据训练还是生成推理中,AI系统往往基于大数据和模型推理,给出过于理想的答案,忽略了现实中的复杂性和局限性。为了让AI更好地服务于用户,我们需要从技术上减少这种偏差,通过增强模型对实际场景的理解和局限性的认识,让AI的功能更加透明、可靠。通过逐步优化技术,AI才能更好地满足用户需求,减少“画大饼”带来的失望。
2025-04-11 14:41:02
1042
原创 探索语言模型的结构与偏见:谁在影响AI的输出?
本篇文章将从训练数据、模型结构、表达机制三个层面,构建一张“语言模型的权力地图”,揭示谁在影响AI的语言输出,谁的表达被默认为标准,谁在被系统性压低音量。我们常说,大型语言模型是“读了全世界的书”、“吸收了互联网的语言”,但我们很少问——它读的书是谁写的?语言模型并没有偏见意识,但它复制了“谁能被频繁说、谁的话被引用、谁的语言容易被清洗”的权力轨迹。语言模型不仅学习语言,它也在学习我们如何界定“谁能说话、怎么说、说了之后会发生什么”。这意味着,语言模型学到的是“频率优势语言”,而不是“表达权利平等结构”。
2025-04-11 10:15:00
804
原创 AI语言生成中的幻觉:结构驱动下的认知误区
语言模型擅长构造“流畅”、“合理”、“结构对称”的语言片段,但这些片段往往缺乏真实语义支撑。本篇文章将从语言模型的生成机制入手,解释AI为何会产生幻觉,并指出:幻觉并非偶然事件,而是生成式AI“语言结构逻辑”的副作用。语言模型的核心目标是“生成最可能出现的下一个token”,它追求的并非真实、正确或一致性,而是结构连贯性和语言概率最大化。这意味着,模型在生成每一个词时,并未尝试“理解上下文的含义”,而是根据已有文本预测“接下来哪个词最可能出现”。语言幻觉不是小故障,而是一个时代表达方式的“镜面折射”。
2025-04-11 09:45:00
812
原创 我们误解的AI:智能还是结构?背后的真相
语言模型不会思考,也不会理解。它只是结构的镜子,是我们人类语言行为的算法合成。但如果我们持续把它当成“思想主体”,赋予它未具备的能力与伦理地位,我们才是真正制造幻觉的人。在AI日益成为表达中介的今天,最该更新的不是它的参数量,而是我们对“智能”的定义。当我们把语言建构者错认成思想主体,真正的认知危机才刚刚开始。这个内容结构和分析希望能帮助你清晰地理解AI和“智能”之间的差距,同时也帮助我们更新对人工智能的认知,并避免被“拟人化的幻觉”误导。
2025-04-11 09:15:00
643
原创 AI语言幻觉的系统实现与权限防御机制
语言模型常出现“我会提醒你”等承诺性回复,但多数系统并不具备执行能力,造成严重的语言幻觉误导。本文从工程角度剖析其成因,提出幻觉检测器、能力验证器与权限锁三大模块,构建“语言-行为一致性”中间层结构,避免用户误信系统能力。适用于对话助手、智能任务系统与嵌入型AI,具备高度可复用性与部署价值。
2025-04-07 09:45:00
1479
原创 [Selenium]C#语言中的等待策略的应用与实现
在Selenium中,等待是一个重要的概念,因为Web应用的响应时间可能因多种因素(如网络延迟、服务器处理时间等)而变化。正确地使用等待是确保Web自动化测试既稳定又可靠的关键。Selenium提供了三种主要的等待策略:隐式等待、显式等待和强制等待。
2024-07-11 18:11:23
1303
1
Absolute C++ 5th Edition
2014-06-14
rubyinstaller-2.5.1-1-x64.exe
2019-05-06
好色鬼颜色拾取器000
2019-05-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅