- 博客(37)
- 收藏
- 关注
原创 VSTS 体验 - TFS 变化巨大
这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。
2026-03-09 13:12:24
320
原创 我对NHibernate的感受():对延迟加载方式的误解
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-09 13:07:27
139
原创 高性能WEB开发() - flush让页面分块,逐步呈现
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-09 13:02:25
245
原创 欢迎腾讯抄袭,腾讯系部分产品正慢慢成为中国IT土产中最好用的产品
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-08 11:16:33
189
原创 Microsoft NLayerApp案例理论与实践 - 多层架构与应用系统设计原则
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-08 11:11:03
156
原创 闭包,懂不懂由你,反正我是懂了
这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。
2026-03-07 12:58:22
305
原创 async 与 await 在 Web 下的应用
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-07 12:52:36
216
原创 从“在winform里打开网页功能”引发的问题探究
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-07 12:46:59
208
原创 【调侃】IOC前世今生
这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。
2026-03-06 12:56:12
346
原创 随谈年的技术生涯和技术成长
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-06 12:51:15
198
原创 一次服务器被入侵的处理过程分享
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-06 12:45:55
213
原创 Linux VIRT-RES-SHR内存概念理解
这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。
2026-03-05 12:13:39
357
原创 被 DDoS 攻击的一夜
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-05 12:08:20
151
原创 kafka 副本集设置和理解
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-04 12:03:40
167
1
原创 docker-compose部署gitlab
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-04 11:56:21
183
原创 【URP】Unity Shader Tags
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-03 21:56:41
174
原创 【光照】[光照模型]发展里程碑时间线
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-03 21:46:46
181
原创 【每日一面】任意 DOM 元素吸顶
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-02 12:46:08
328
原创 Powershell 入门(一)
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-02 12:39:08
279
原创 【Rive】rive-android源码分析
但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。
2026-03-01 11:09:36
359
原创 Mac端查词翻译工作流:基于欧路词典与Raycast
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-03-01 11:03:32
219
原创 VonaJS AOP编程:魔术方法
但是,当我们有很多个并列最小的数时,对这些数删除的顺序是有讲究的。每次只能删除最左边或最右边的数,否则一定会产生两个相等的数交换位置的情况。这样,才能保证后面被删除的数是最优的。,然后再将前后的数合并,即将要删掉的数删掉。对一个序列分成三段,一段为要删的数前的数,一段为其自己,一段为其后面的数,启动次数就是前面的数的。其实树状数组也可以用,又快又好些,吹普常数大的没边,但我是范浩强吹普死忠粉,我就要用。小 D 认为一个整数序列是好的,当且仅当它先(不严格)上升,后(不严格)下降。,他想让这个序列变成好的。
2026-02-28 19:20:12
399
原创 给web增加简单的ai对话功能
在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;
2026-02-28 19:16:45
394
原创 轻量级图片信息解析程序
测试时发现 3DMAX 的资源包中很多 tga 图片,文件头存储的色深是 8 位,按照我查阅的资料,这样的 tga 是灰度图,其后续的 alpha bits 数值应该是 0,但是这些图片的 alpha bits 都是 8,我的程序将这样的 tga 判断为非法图片从而解析失败。因为项目依赖 opencv,以前都是直接用的 opencv 来读入图片后获取这些信息的,opencv 读入图片是读取所有的数据,会影响效率和内存占用,后来改用 stb_image,但是发现它不支持 tif 格式的文件。
2025-12-21 14:57:35
932
原创 MPK(Mirage Persistent Kernel)源码笔记(1)--- 基础原理
正是这种编程视角的层级差异,构成了当前高性能 GPU 编程领域的核心挑战:缺乏一套能够 “跨内核(Kernel)、线程块(Block)、线程(Thread)三个层级” 联合搜索最优计算方案,并自动验证方案正确性的系统。GPU 上的计算被组织为内核,每个内核都是一个函数,以单程序多数据(SPMD)的方式在多个 GPU 核心上同时执行。MPK提供了一种全新的思路,将性能优化的重心从“如何调用优化库”转移到了“如何为整个模型生成一个最优的、原生的执行体”,在多GPU环境下实现了更高的吞吐量和更低的延迟。
2025-12-21 14:56:59
416
原创 人工智能之数据分析 numpy:第十五章 项目实践
returns = np.random.normal(loc=0.001, scale=0.02, size=n_days) # 日收益率。X = np.random.randn(100, 2) @ np.array([[2, 1], [1, 1]]) # 相关数据。volatility = np.std(daily_returns) * np.sqrt(252) # 年化波动率。price = 100 * np.exp(np.cumsum(returns)) # 初始价100。
2025-12-17 19:41:15
828
原创 Linux 通用软件包 AppImage 打包详解
linuxdeploy 是一个由第三方制作的 AppImage 打包工具,与 appimagetool 不同的是,它可以对待打包程序自动进行依赖分析,并自动将所需的依赖及资源文件按照 AppDir 的目录格式给装填完毕,用户只需将模版化的 desktop 文件和 icon 文件准备好即可,使用起来简直美滋滋。它的工作原理便是将程序运行所需的文件全部打包在一个文件中,待程序运行时再将这些文件提取在 /tmp/.mount_xxxxxxx/ 目录中,然后执行 AppRun 脚本启动程序以进行资源的调用。
2025-12-17 19:40:35
657
原创 LLM应用剖析: 手机智能助理Phone Agent
"message": "任务完成!搜索结果显示了多家附近的火锅店,包括:\n\n1. **许府牛火锅(合肥悦方店)** - 评分4.3分,963条评论,人均¥50,距离1.9km\n2. **2014海鲜烧烤·涮羊肉·羊蝎子** - 评分4.9分,572条评论,人均¥78,距离2.4km \n3. **浪里寻·臻牛养生牛肉火** - 评分5.0分,4.9万条评论,人均¥63,距离3.4km\n\n页面还提供了多种筛选选项(全部、外卖、团购、地点等),你可以根据需要选择合适的筛选条件来查看更多火锅店 信息。
2025-12-15 13:11:58
548
原创 在windows平台搭建一个mini版本的k8s集群
下载解压,然后用helm安装operator。这边安装步骤之类的网上都有,最后要达成的效果就是二者都安装ok,同时要用wsl2起一台Linux虚机即可。1. 目标是1 control-plane,2个worker节点,输出kind-config.yaml。2.安装chaosblade-box,配置属于chaosblade-box的namespace。2. 尝试下基础命令是否ok,可以看到pod情况,以及node情况。3. 安装helm,直接通过链接下载然后解压。chaosblade安装与使用。
2025-12-15 13:11:12
252
原创 规范驱动开发:用 AI 写生产级代码的完整指南
你可能已经在用 AI 写代码:GitHub Copilot 自动补全函数、ChatGPT 起草样板、Cursor/Windsurf 等工具层出不穷。但你也许在“宣传与现实”之间摇摆:一边是“AI 能写绝大多数代码”的乐观数据,一边是质量与安全的隐忧。 真正需要的是一套方法:它明确哪些工具适合哪些场景、如何确保 AI 生成的代码达到生产级标准、以及如何在团队中稳妥落地而不制造混乱。 这就是“规范驱动开发(Spec-Driven Development)”。核心思想是:让“形式化、可执行的规范”成为事实来源,以
2025-12-14 11:07:55
990
原创 CompletableFuture的5大坑!
System.err.println("操作失败,使用默认值: " + throwable.getMessage());System.err.println("操作异常: " + throwable.getMessage());System.out.println("根本原因: " + e.getCause().getMessage());System.out.println("捕获到异常: " + e.getClass().getName());
2025-12-14 11:07:11
411
原创 ARM汇编概述:Cortex-M3/M4实战指南
前索引([Rn, #4]!后索引([Rn], #4):地址 = Rn,然后更新Rn = Rn + 4。Cortex-M3/M4架构遵循Load-Store原则,即数据处理指令只操作寄存器,与内存的数据交换必须通过LDR(从内存加载数据到寄存器)和STR(将寄存器数据存储到内存)指令完成。{cond}:可选,条件执行后缀(如MOVNE R0, #0xFF表示"若Z=0(前序运算结果非0),则执行")。操作对象是寄存器:核心寄存器仅需掌握R0-R7(数据)、SP/LR/PC(控制)和APSR(条件标志)。
2025-12-13 18:11:41
811
原创 【URP】Unity[后处理]色彩调整ColorAdjustments
对比度计算:采用中间灰值(0.5)作为基准点,使用saturate((color.rgb - 0.5) * contrast + 0.5)公式扩展或压缩动态范围,其中saturate确保结果在[0,1]范围内。Post Exposure:以EV单位调整场景整体曝光度,作用于HDR效果后、色调映射前,不影响处理链中其他效果。色调/饱和度:将RGB转换到HSV色彩空间,调整H分量实现色相旋转,S分量控制颜色纯度,最后转回RGB空间.曝光计算:采用2的幂次方实现物理正确的曝光模拟。
2025-12-13 18:10:50
355
原创 史诗级漏洞警报:ASP.NET Core 被曝 CVSS 9.9 分漏洞,几乎所有.NET 版本无一幸免!
攻击者可以发送一个“畸形”的 HTTP 请求,让你的前端代理(比如 Nginx、负载均衡器)和后端的 Kestrel 服务器对这个请求的“边界”产生误解,从而把恶意请求“走私”进去,绕过你的所有安全检查。通过对 PoC 代码的分析,可以得出结论:CVE-2025-55315 的根源在于 Kestrel 的 HTTP/1.1 解析器在处理分块传输编码 (Chunked Transfer Encoding) 时,对行结束符的处理过于宽松,接受了不符合 RFC 规范的畸形输入。
2025-12-12 11:45:48
388
原创 【光照】UnityURP[屏幕空间环境光遮蔽SSAO]原理剖析实践
背面剔除:max(0, N·S)确保只有法线半球内的采样点(夹角小于90°)产生贡献,排除背面无效采样示例:当N=(0,1,0)且S=(0.3,0.8,0)时,点积结果为0.8,有效权重为0.8。采样方式:使用SAMPLE_TEXTURE2D函数结合屏幕UV坐标获取非线性深度值,需通过Linear01Depth()转换为[0,1]范围的线性深度。最终乘积:法线权重与可见性系数相乘,实现物理正确的遮蔽衰减应用场景:当采样点S在法线后方(N·S<0)或未被遮挡(Ds>Dp)时,该点贡献为0。
2025-12-12 11:45:05
951
2
原创 [PBR][法线分布]为何不选Beckmann
2014年的Siggraph报告显示,在相同性能预算下,GGX相比Beckmann可获得平均23%的视觉质量提升。尽管Beckmann作为早期PBR的重要组成具有历史意义,但现代渲染管线已普遍转向GGX及其变种作为标准NDF实现。Beckmann分布函数是最早用于微表面模型的法线分布函数之一,由Paul Beckmann在1963年的光学研究中首次提出。它描述了表面微平面法线分布的统计规律,是计算机图形学中最早的物理准确NDF实现。特别是金属和粗糙表面,GGX的长尾分布更准确。
2025-12-11 10:48:01
389
原创 FreeRTOS的内存管理
heap_1 只分配,不释放(pvPortMalloc有效,vPortFree无效) 实现最简单,执行时间绝对确定(无碎片) 内存无法回收,分配后永久占用 只创建一次内核对象(如任务、队列),运行中不删除的场景(如固定功能的嵌入式设备)heap_1/4/5 的分配时间是大致确定的(遍历空闲块的次数有限),而 heap_2(碎片导致遍历变长)和 heap_3(依赖标准库,时间不确定)可能破坏实时性。系统稳定性的保障:例如 heap_1 避免了释放操作,适合资源受限且功能固定的场景(如传感器节点);
2025-12-11 10:47:27
646
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅