自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(37)
  • 收藏
  • 关注

原创 VSTS 体验 - TFS 变化巨大

这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。

2026-03-09 13:12:24 320

原创 我对NHibernate的感受():对延迟加载方式的误解

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-09 13:07:27 139

原创 高性能WEB开发() - flush让页面分块,逐步呈现

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-09 13:02:25 245

原创 欢迎腾讯抄袭,腾讯系部分产品正慢慢成为中国IT土产中最好用的产品

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-08 11:16:33 189

原创 Microsoft NLayerApp案例理论与实践 - 多层架构与应用系统设计原则

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-08 11:11:03 156

原创 闭包,懂不懂由你,反正我是懂了

这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。

2026-03-07 12:58:22 305

原创 async 与 await 在 Web 下的应用

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-07 12:52:36 216

原创 从“在winform里打开网页功能”引发的问题探究

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-07 12:46:59 208

原创 【调侃】IOC前世今生

这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。

2026-03-06 12:56:12 346

原创 随谈年的技术生涯和技术成长

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-06 12:51:15 198

原创 一次服务器被入侵的处理过程分享

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-06 12:45:55 213

原创 Linux VIRT-RES-SHR内存概念理解

这篇论文语义Id的生成也是用的tiger论文提出的RQVAE方法,只不过这里是将语义Id用于排序阶段,将语义Id作为增强特征与其他特征进行拼接后,送入传统的排序模型。然而,这种“死记硬背”的方式也带来了明显的弊端:模型对新出现的、缺乏交互的长尾物品束手无策,因为这些随机ID本身不携带任何语义信息,无法帮助模型进行泛化推理。原理: 借鉴NLP中广泛应用的SentencePiece模型,该方法不再使用固定的N,而是根据ID组合在训练数据中出现的频率,动态地、自适应地学习最优的子词切分方案。

2026-03-05 12:13:39 357

原创 被 DDoS 攻击的一夜

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-05 12:08:20 151

原创 kafka 副本集设置和理解

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-04 12:03:40 167 1

原创 docker-compose部署gitlab

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-04 11:56:21 183

原创 【URP】Unity Shader Tags

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-03 21:56:41 174

原创 【光照】[光照模型]发展里程碑时间线

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-03 21:46:46 181

原创 【每日一面】任意 DOM 元素吸顶

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-02 12:46:08 328

原创 Powershell 入门(一)

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-02 12:39:08 279

原创 【Rive】rive-android源码分析

但今天读到的一篇文章《Java Performs Better When You Misspell Variable Names》,把这条铁律里的“性能部分”掀了桌:在 Java 的某些栈中,刻意缩短、甚至“错拼”的变量名,可能真的让服务更快。用 JMH 写对照实验,两个版本代码逻辑完全一致,唯一变量是“命名长度与形态”:一个版本用规范、完整、可读的名字,另一个版本把元音删掉、前缀缩短、偶尔把名字变得更随机。毕竟,在工程世界里,漂亮的代码不一定是最快的代码,而我们有时需要的,是能顶住流量的那一段真实提升。

2026-03-01 11:09:36 359

原创 Mac端查词翻译工作流:基于欧路词典与Raycast

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-03-01 11:03:32 219

原创 VonaJS AOP编程:魔术方法

但是,当我们有很多个并列最小的数时,对这些数删除的顺序是有讲究的。每次只能删除最左边或最右边的数,否则一定会产生两个相等的数交换位置的情况。这样,才能保证后面被删除的数是最优的。,然后再将前后的数合并,即将要删掉的数删掉。对一个序列分成三段,一段为要删的数前的数,一段为其自己,一段为其后面的数,启动次数就是前面的数的。其实树状数组也可以用,又快又好些,吹普常数大的没边,但我是范浩强吹普死忠粉,我就要用。小 D 认为一个整数序列是好的,当且仅当它先(不严格)上升,后(不严格)下降。,他想让这个序列变成好的。

2026-02-28 19:20:12 399

原创 给web增加简单的ai对话功能

在实用性能上,它在OmniDocBench基准测试中,仅用100个视觉token就超越需256个token的GOT-OCR2.0,用少于800个视觉token超越平均需6000+个token的MinerU2.0,且单A100-40G显卡日生成20万+页LLM/VLM训练数据,代码和模型权重已开源(http://github.com/deepseek-ai/DeepSeek-OCR),为LLM长上下文压缩、记忆遗忘机制研究及实际OCR任务提供重要价值。配置:AdamW优化器,步长调度器,初始学习率3e-5;

2026-02-28 19:16:45 394

原创 轻量级图片信息解析程序

测试时发现 3DMAX 的资源包中很多 tga 图片,文件头存储的色深是 8 位,按照我查阅的资料,这样的 tga 是灰度图,其后续的 alpha bits 数值应该是 0,但是这些图片的 alpha bits 都是 8,我的程序将这样的 tga 判断为非法图片从而解析失败。因为项目依赖 opencv,以前都是直接用的 opencv 来读入图片后获取这些信息的,opencv 读入图片是读取所有的数据,会影响效率和内存占用,后来改用 stb_image,但是发现它不支持 tif 格式的文件。

2025-12-21 14:57:35 932

原创 MPK(Mirage Persistent Kernel)源码笔记(1)--- 基础原理

正是这种编程视角的层级差异,构成了当前高性能 GPU 编程领域的核心挑战:缺乏一套能够 “跨内核(Kernel)、线程块(Block)、线程(Thread)三个层级” 联合搜索最优计算方案,并自动验证方案正确性的系统。GPU 上的计算被组织为内核,每个内核都是一个函数,以单程序多数据(SPMD)的方式在多个 GPU 核心上同时执行。MPK提供了一种全新的思路,将性能优化的重心从“如何调用优化库”转移到了“如何为整个模型生成一个最优的、原生的执行体”,在多GPU环境下实现了更高的吞吐量和更低的延迟。

2025-12-21 14:56:59 416

原创 人工智能之数据分析 numpy:第十五章 项目实践

returns = np.random.normal(loc=0.001, scale=0.02, size=n_days) # 日收益率。X = np.random.randn(100, 2) @ np.array([[2, 1], [1, 1]]) # 相关数据。volatility = np.std(daily_returns) * np.sqrt(252) # 年化波动率。price = 100 * np.exp(np.cumsum(returns)) # 初始价100。

2025-12-17 19:41:15 828

原创 Linux 通用软件包 AppImage 打包详解

linuxdeploy 是一个由第三方制作的 AppImage 打包工具,与 appimagetool 不同的是,它可以对待打包程序自动进行依赖分析,并自动将所需的依赖及资源文件按照 AppDir 的目录格式给装填完毕,用户只需将模版化的 desktop 文件和 icon 文件准备好即可,使用起来简直美滋滋。它的工作原理便是将程序运行所需的文件全部打包在一个文件中,待程序运行时再将这些文件提取在 /tmp/.mount_xxxxxxx/ 目录中,然后执行 AppRun 脚本启动程序以进行资源的调用。

2025-12-17 19:40:35 657

原创 LLM应用剖析: 手机智能助理Phone Agent

"message": "任务完成!搜索结果显示了多家附近的火锅店,包括:\n\n1. **许府牛火锅(合肥悦方店)** - 评分4.3分,963条评论,人均¥50,距离1.9km\n2. **2014海鲜烧烤·涮羊肉·羊蝎子** - 评分4.9分,572条评论,人均¥78,距离2.4km \n3. **浪里寻·臻牛养生牛肉火** - 评分5.0分,4.9万条评论,人均¥63,距离3.4km\n\n页面还提供了多种筛选选项(全部、外卖、团购、地点等),你可以根据需要选择合适的筛选条件来查看更多火锅店 信息。

2025-12-15 13:11:58 548

原创 在windows平台搭建一个mini版本的k8s集群

下载解压,然后用helm安装operator。这边安装步骤之类的网上都有,最后要达成的效果就是二者都安装ok,同时要用wsl2起一台Linux虚机即可。1. 目标是1 control-plane,2个worker节点,输出kind-config.yaml。2.安装chaosblade-box,配置属于chaosblade-box的namespace。2. 尝试下基础命令是否ok,可以看到pod情况,以及node情况。3. 安装helm,直接通过链接下载然后解压。chaosblade安装与使用。

2025-12-15 13:11:12 252

原创 规范驱动开发:用 AI 写生产级代码的完整指南

你可能已经在用 AI 写代码:GitHub Copilot 自动补全函数、ChatGPT 起草样板、Cursor/Windsurf 等工具层出不穷。但你也许在“宣传与现实”之间摇摆:一边是“AI 能写绝大多数代码”的乐观数据,一边是质量与安全的隐忧。 真正需要的是一套方法:它明确哪些工具适合哪些场景、如何确保 AI 生成的代码达到生产级标准、以及如何在团队中稳妥落地而不制造混乱。 这就是“规范驱动开发(Spec-Driven Development)”。核心思想是:让“形式化、可执行的规范”成为事实来源,以

2025-12-14 11:07:55 990

原创 CompletableFuture的5大坑!

System.err.println("操作失败,使用默认值: " + throwable.getMessage());System.err.println("操作异常: " + throwable.getMessage());System.out.println("根本原因: " + e.getCause().getMessage());System.out.println("捕获到异常: " + e.getClass().getName());

2025-12-14 11:07:11 411

原创 ARM汇编概述:Cortex-M3/M4实战指南

前索引([Rn, #4]!后索引([Rn], #4):地址 = Rn,然后更新Rn = Rn + 4。Cortex-M3/M4架构遵循Load-Store原则,即数据处理指令只操作寄存器,与内存的数据交换必须通过LDR(从内存加载数据到寄存器)和STR(将寄存器数据存储到内存)指令完成。{cond}:可选,条件执行后缀(如MOVNE R0, #0xFF表示"若Z=0(前序运算结果非0),则执行")。操作对象是寄存器:核心寄存器仅需掌握R0-R7(数据)、SP/LR/PC(控制)和APSR(条件标志)。

2025-12-13 18:11:41 811

原创 【URP】Unity[后处理]色彩调整ColorAdjustments

‌对比度计算‌:采用中间灰值(0.5)作为基准点,使用saturate((color.rgb - 0.5) * contrast + 0.5)公式扩展或压缩动态范围,其中saturate确保结果在[0,1]范围内。‌Post Exposure‌:以EV单位调整场景整体曝光度,作用于HDR效果后、色调映射前,不影响处理链中其他效果。‌色调/饱和度‌:将RGB转换到HSV色彩空间,调整H分量实现色相旋转,S分量控制颜色纯度,最后转回RGB空间.‌曝光计算‌:采用2的幂次方实现物理正确的曝光模拟。

2025-12-13 18:10:50 355

原创 史诗级漏洞警报:ASP.NET Core 被曝 CVSS 9.9 分漏洞,几乎所有.NET 版本无一幸免!

攻击者可以发送一个“畸形”的 HTTP 请求,让你的前端代理(比如 Nginx、负载均衡器)和后端的 Kestrel 服务器对这个请求的“边界”产生误解,从而把恶意请求“走私”进去,绕过你的所有安全检查。通过对 PoC 代码的分析,可以得出结论:CVE-2025-55315 的根源在于 Kestrel 的 HTTP/1.1 解析器在处理分块传输编码 (Chunked Transfer Encoding) 时,对行结束符的处理过于宽松,接受了不符合 RFC 规范的畸形输入。

2025-12-12 11:45:48 388

原创 【光照】UnityURP[屏幕空间环境光遮蔽SSAO]原理剖析实践

‌背面剔除‌:max(0, N·S)确保只有法线半球内的采样点(夹角小于90°)产生贡献,排除背面无效采样示例:当N=(0,1,0)且S=(0.3,0.8,0)时,点积结果为0.8,有效权重为0.8。‌采样方式‌:使用SAMPLE_TEXTURE2D函数结合屏幕UV坐标获取非线性深度值,需通过Linear01Depth()转换为[0,1]范围的线性深度。‌最终乘积‌:法线权重与可见性系数相乘,实现物理正确的遮蔽衰减应用场景:当采样点S在法线后方(N·S<0)或未被遮挡(Ds>Dp)时,该点贡献为0。

2025-12-12 11:45:05 951 2

原创 [PBR][法线分布]为何不选Beckmann

2014年的Siggraph报告显示,在相同性能预算下,GGX相比Beckmann可获得平均23%的视觉质量提升。尽管Beckmann作为早期PBR的重要组成具有历史意义,但现代渲染管线已普遍转向GGX及其变种作为标准NDF实现。Beckmann分布函数是最早用于微表面模型的法线分布函数之一,由Paul Beckmann在1963年的光学研究中首次提出。它描述了表面微平面法线分布的统计规律,是计算机图形学中最早的物理准确NDF实现。特别是金属和粗糙表面,GGX的长尾分布更准确。

2025-12-11 10:48:01 389

原创 FreeRTOS的内存管理

heap_1 只分配,不释放(pvPortMalloc有效,vPortFree无效) 实现最简单,执行时间绝对确定(无碎片) 内存无法回收,分配后永久占用 只创建一次内核对象(如任务、队列),运行中不删除的场景(如固定功能的嵌入式设备)heap_1/4/5 的分配时间是大致确定的(遍历空闲块的次数有限),而 heap_2(碎片导致遍历变长)和 heap_3(依赖标准库,时间不确定)可能破坏实时性。系统稳定性的保障:例如 heap_1 避免了释放操作,适合资源受限且功能固定的场景(如传感器节点);

2025-12-11 10:47:27 646

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除