- 博客(31)
- 收藏
- 关注
原创 高光谱成像基础(三)主成分分析 PCA
OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张图片和一个英文问题(该模型仅支持英文),模型就能输出对应的答案(比如输入“瓶子”图片+问题“What is the main subject?ModelScope 加载 OFA 模型时,会自动检查依赖版本,如果发现版本和它硬编码的要求不一致,会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本,也会被覆盖,导致之前的努力白费。
2026-05-08 18:33:27
164
原创 G DWDM/OTN系统DCM色散补偿
注意:templateName、createAsContainerDatabase必須指定。修改db_install.rsp文件中以下内容。12.1.编辑dbca.rsp安装文件。1.7.关闭防火墙还有selinux。10.2.静默安装Oracle软件。1.6.解析/etc/hosts。6./etc/profile配置。10.静默安装Oracle数据库。查看是否安装有Oracle软件。4.配置Oracle的环境变量。以下在root用户下操作。oracle用户下操作。oracle用户下操作。
2026-05-08 18:04:37
154
原创 我们如何同步 .NET 的虚拟单体仓库(二)
2.使用c命名空间注入属性,语法:c:属性名="属性值" c:属性名-ref="引用类型属性值"</p>// 获取spring容器中的对象。2.使用p命名空间注入属性,语法:p:属性名="属性值" p:属性名-ref="引用类型属性值"--><p> 如果key是简单类型,可以直接使用entry标签的key属性赋值
2026-05-08 17:33:46
239
原创 higress 这个中登才是AI时代的心头好
print(f"请求成功!状态码: {response.status_code}")print("响应内容前100个字符:", response.text[:100])print(f"请求失败!状态码: {response.status_code}")API交互: 与各种Web服务(如天气API、社交媒体API)进行通信,获取或提交数据。requests 是一个用于发送请求的 Python 库。轻松发送GET、POST、PUT、DELETE等请求。自动化测试: 自动化测试Web应用的接口功能。
2026-05-08 17:04:49
37
原创 我们如何同步 .NET 的虚拟单体仓库(二)
2.使用c命名空间注入属性,语法:c:属性名="属性值" c:属性名-ref="引用类型属性值"</p>// 获取spring容器中的对象。2.使用p命名空间注入属性,语法:p:属性名="属性值" p:属性名-ref="引用类型属性值"--><p> 如果key是简单类型,可以直接使用entry标签的key属性赋值
2026-05-08 15:53:21
326
原创 高光谱成像基础(三)主成分分析 PCA
OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张图片和一个英文问题(该模型仅支持英文),模型就能输出对应的答案(比如输入“瓶子”图片+问题“What is the main subject?ModelScope 加载 OFA 模型时,会自动检查依赖版本,如果发现版本和它硬编码的要求不一致,会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本,也会被覆盖,导致之前的努力白费。
2026-05-07 15:27:38
209
原创 higress 这个中登才是AI时代的心头好
print(f"请求成功!状态码: {response.status_code}")print("响应内容前100个字符:", response.text[:100])print(f"请求失败!状态码: {response.status_code}")API交互: 与各种Web服务(如天气API、社交媒体API)进行通信,获取或提交数据。requests 是一个用于发送请求的 Python 库。轻松发送GET、POST、PUT、DELETE等请求。自动化测试: 自动化测试Web应用的接口功能。
2026-05-07 14:02:51
311
原创 我们如何同步 .NET 的虚拟单体仓库(二)
2.使用c命名空间注入属性,语法:c:属性名="属性值" c:属性名-ref="引用类型属性值"</p>// 获取spring容器中的对象。2.使用p命名空间注入属性,语法:p:属性名="属性值" p:属性名-ref="引用类型属性值"--><p> 如果key是简单类型,可以直接使用entry标签的key属性赋值
2026-05-06 14:20:27
191
原创 higress 这个中登才是AI时代的心头好
print(f"请求成功!状态码: {response.status_code}")print("响应内容前100个字符:", response.text[:100])print(f"请求失败!状态码: {response.status_code}")API交互: 与各种Web服务(如天气API、社交媒体API)进行通信,获取或提交数据。requests 是一个用于发送请求的 Python 库。轻松发送GET、POST、PUT、DELETE等请求。自动化测试: 自动化测试Web应用的接口功能。
2026-05-06 13:37:47
207
原创 我们如何同步 .NET 的虚拟单体仓库(二)
在实际使用中该控件主要用于整型或浮点的计数显示,与普通的LineEdit组件不同,该组件可以在前后增加特殊符号并提供了上下幅度的调整按钮,灵活性更强。接下来将用一个简单的案例展示如何使用 QSpinBox组件,该组件有两个版本:QSpinBox用于展示单精度浮点数,而QDoubleSpinBox() 则可以展示精度更高的数值,需要注意的是,该组件有两个特殊参数,当使用setPrefix() 时可以指定在前方加入特殊符号,而使用 setSuffix() 时则可以在后方追加特殊符号,我们就可以后方追加为例。
2026-05-05 14:59:51
219
原创 higress 这个中登才是AI时代的心头好
Trae CN:在solo模式下,可以选择Doubao-Seed-Code、GLM、MiniMax和Kimi-K2,在IDE模式下,模型选择多了“Doubao-Seed-1.8”、“DeepSeek-V3.1-Terminus”和"Qwen-3-Coder"ate:模式选择最多“Zulu”、“Ask”、“Plan”、“Architech”、“Page Builder”、“Figma2Code”,模型可以选“Kimi”、“DeepSeek”、“GLM”和“MiniMax”。这明显是想让我先用IDE。
2026-05-05 14:14:45
193
原创 扩散模型对抗样本经典baselines
Khronos Group制定和维护了glTF数据格式的标准,同时由于其也是OpenGL接口标准的指定者和维护者,因此glTF特别适合OpenGL系列(OpenGL,OpenGL ES,WebGL)的图形渲染流水线所需要进行的处理。.gltf后缀的文件就是用于三维场景数据描述的JSON文件,.bin后缀的文件就是储存缓存区数据的二进制文件,.jpg文件就是三维模型用到的纹理图片。因此,三维数据格式总是会随着计算机图形技术的发展而发展,要么会出现更新的三维模型数据的格式,要么会在已有的三维模型数据上作扩展。
2026-05-04 15:52:58
170
原创 TableWidget 表格组件
print(f"当前Python版本 {sys.version_info.major}.{sys.version_info.minor} 符合要求。print(f"警告: 你的Python版本是 {sys.version_info.major}.{sys.version_info.minor}。print(f"\n模拟包信息定义 ({package_info['name']} v{package_info['version']}):")# setuptools.setup() 在实际中会在这里被调用。
2026-05-04 15:40:40
194
原创 Docker 容器中运行 AI CLI 工具:用户隔离与持久化卷实战指南
将 Excel 转换为 TXT 不仅是格式的简单转换,更是实现数据自动化流程的重要环节。数据清洗与预处理: 将复杂格式的 Excel 数据转换为 TXT,作为其他数据分析工具(如Spark、Hadoop)的输入源,进行更深层次的处理。配置管理: 将 Excel 中维护的系统配置、参数表等导出为 TXT 格式,便于脚本直接读取,同时更适合使用 Git 等工具进行版本管理。自动化报告生成: 从 Excel 模板中提取数据,生成纯文本格式的报告摘要,方便邮件发送或系统集成。# 将工作表内容保存为TXT文件。
2026-05-03 20:49:41
187
原创 Redis命令处理机制源码探究
OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张图片和一个英文问题(该模型仅支持英文),模型就能输出对应的答案(比如输入“瓶子”图片+问题“What is the main subject?ModelScope 加载 OFA 模型时,会自动检查依赖版本,如果发现版本和它硬编码的要求不一致,会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本,也会被覆盖,导致之前的努力白费。
2026-05-03 20:28:36
362
原创 Docker 容器中运行 AI CLI 工具:用户隔离与持久化卷实战指南
// 工作流信息。} // 父检查点。} // 目标 Executor ID。} // 源 Executor ID。var workflow = new WorkflowBuilder(startExecutor) // 指定起点。.WithName("订单处理工作流") // 设置名称。} // 边的具体数据。
2026-05-02 16:34:57
334
原创 Redis命令处理机制源码探究
OFA(One For All)是字节跳动提出的多模态预训练模型,支持视觉问答、图像描述、图像编辑等多种任务,其中视觉问答(VQA)是最常用的功能之一——输入一张图片和一个英文问题(该模型仅支持英文),模型就能输出对应的答案(比如输入“瓶子”图片+问题“What is the main subject?ModelScope 加载 OFA 模型时,会自动检查依赖版本,如果发现版本和它硬编码的要求不一致,会直接卸载你的版本并强制安装指定版本——哪怕你已经安装了正确的版本,也会被覆盖,导致之前的努力白费。
2026-05-02 16:20:01
351
原创 那些你不知道自己需要监控的 Linux 暗坑
尤其对于 2000 万行表,全表拷贝的 IO 开销成为性能瓶颈,72 万行小表测试耗时 203 秒的核心原因也在于此。MySQL 5.6 对原生数值类型(TINYINT/INT/BIGINT)+ 简单常量默认值(如 0)的 DDL 操作有轻量级优化:无默认值时需全表拷贝 + 逐行初始化字段值,而显式指定默认值后会优化为全表拷贝 + 批量赋值默认值,减少 60% 以上的 IO 开销,且该优化对数值类型的适配性远优于 VARCHAR 类型(BIGINT 比 VARCHAR 的执行效率更高、资源占用更低)。
2026-05-01 15:23:26
273
原创 记一次综合型流量分析 | 添柴不加火
langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。response = chain.invoke({"topic": "Python", "concept": "列表"})response = chain.invoke({"topic": "Python", "concept": "列表"})这是模型需要直接回答或处理的问题。("system", "你是一个精通{topic}的资深技术专家。
2026-05-01 15:01:01
205
原创 那些你不知道自己需要监控的 Linux 暗坑
尤其对于 2000 万行表,全表拷贝的 IO 开销成为性能瓶颈,72 万行小表测试耗时 203 秒的核心原因也在于此。MySQL 5.6 对原生数值类型(TINYINT/INT/BIGINT)+ 简单常量默认值(如 0)的 DDL 操作有轻量级优化:无默认值时需全表拷贝 + 逐行初始化字段值,而显式指定默认值后会优化为全表拷贝 + 批量赋值默认值,减少 60% 以上的 IO 开销,且该优化对数值类型的适配性远优于 VARCHAR 类型(BIGINT 比 VARCHAR 的执行效率更高、资源占用更低)。
2026-04-30 17:11:45
280
原创 记一次综合型流量分析 | 添柴不加火
langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。response = chain.invoke({"topic": "Python", "concept": "列表"})response = chain.invoke({"topic": "Python", "concept": "列表"})这是模型需要直接回答或处理的问题。("system", "你是一个精通{topic}的资深技术专家。
2026-04-30 16:48:56
152
原创 那些你不知道自己需要监控的 Linux 暗坑
1 | 张三 | 25 | zhangsan@example...|| 2 | 李四 | NULL | NULL || 5 | 赵六 | 35 | NULL |-- 这时候:count(*) = count(id) = count(name)
2026-04-29 16:24:35
267
原创 记一次综合型流量分析 | 添柴不加火
ax2.scatter(sales_2022, y_pos, s=120, color='#4C72B0', alpha=0.9, label='2022年', zorder=2, edgecolors='white', linewidth=2)进一步,我们还可以给哑铃图排序,按照增长由快到慢给各个品类排序,这样自然形成从"下降最显著"到"增长最显著"的连续谱,模式自动显现,无需刻意寻找。这样改造后,由上到下的哑铃,越来越短(也就是增长越来越慢),最底部的那个是负增长,用了红色来标注。
2026-04-29 16:04:46
326
原创 《OpenClaw (Docker手工部署版) 终极避坑与实战指南》
print(f"错误信息: {response.data.decode('utf-8')}")状态码: {response.status}")print(f"请求失败!状态码: {response.status}")urllib3 是一个用于处理 请求和连接池的强大、用户友好的 Python 库。print(f"连接失败或重试次数超出限制: {e}")print(f"无法建立连接: {e}")print(f"发生未知错误: {e}")print("响应数据:")自动化测试: 模拟请求,测试Web服务。
2026-04-28 14:51:59
236
原创 MySL优化全攻略:索引、SL与分库分表的最佳实践
printf("Q位状态:%s\n", is_q_flag_set()?"溢出(置1)" : "未溢出(置0)");优先使用 ARM GCC 内置函数(如__qadd),深入调试可通过汇编操作 Q 位,检测溢出需读取 APSR 的 Bit27;printf("32位饱和加法结果:%d(预期:2147483647)\n", res1);运算结果超出目标数据类型的数值范围(上限 / 下限) 时,结果被 “钳位” 到该类型的极值;
2026-04-28 14:29:28
238
原创 《OpenClaw (Docker手工部署版) 终极避坑与实战指南》
print(f"错误信息: {response.data.decode('utf-8')}")状态码: {response.status}")print(f"请求失败!状态码: {response.status}")urllib3 是一个用于处理 请求和连接池的强大、用户友好的 Python 库。print(f"连接失败或重试次数超出限制: {e}")print(f"无法建立连接: {e}")print(f"发生未知错误: {e}")print("响应数据:")自动化测试: 模拟请求,测试Web服务。
2026-04-27 14:55:25
147
原创 MySL优化全攻略:索引、SL与分库分表的最佳实践
printf("Q位状态:%s\n", is_q_flag_set()?"溢出(置1)" : "未溢出(置0)");优先使用 ARM GCC 内置函数(如__qadd),深入调试可通过汇编操作 Q 位,检测溢出需读取 APSR 的 Bit27;printf("32位饱和加法结果:%d(预期:2147483647)\n", res1);运算结果超出目标数据类型的数值范围(上限 / 下限) 时,结果被 “钳位” 到该类型的极值;
2026-04-27 14:32:09
241
原创 《OpenClaw (Docker手工部署版) 终极避坑与实战指南》
项目内存 ./CLAUDE.md 或 ./.claude/CLAUDE.md 项目的团队共享说明 项目架构、编码标准、常见工作流 通过源代码控制的团队成员。项目规则 ./.claude/rules/*.md 模块化、特定主题的项目说明 特定于语言的指南、测试约定、API 标准 通过源代码控制的团队成员。项目内存(本地) ./CLAUDE.local.md 个人的项目特定偏好设置 您的沙箱 URL、首选测试数据 仅您(当前项目)
2026-04-26 14:05:27
359
原创 MySL优化全攻略:索引、SL与分库分表的最佳实践
这里用的ChatPromptTemplate.from_template和上的ChatPromptTemplate.from_messages不同,区别在于前者比较简单,相当于后者直接用user字典的形式,后者from_messages有langchain框架提供的prompt模板。"你是一位高考作文专家。langchain中提供的chain链组件,能够帮助我门快速的实现各个组件的流水线式的调用,和模型的问答。"请给主题为 {topic} 的议论文写一个 总-递进-总 的简短大纲,一共分为5段。
2026-04-26 13:34:29
187
原创 MySL优化全攻略:索引、SL与分库分表的最佳实践
这里用的ChatPromptTemplate.from_template和上的ChatPromptTemplate.from_messages不同,区别在于前者比较简单,相当于后者直接用user字典的形式,后者from_messages有langchain框架提供的prompt模板。"你是一位高考作文专家。langchain中提供的chain链组件,能够帮助我门快速的实现各个组件的流水线式的调用,和模型的问答。"请给主题为 {topic} 的议论文写一个 总-递进-总 的简短大纲,一共分为5段。
2026-04-25 16:17:13
223
原创 大模型学习6-模型量化与推理部署
基于不同数值表示的特点,研究者提出了模型量化方法,即将模型中的高精度浮点数映射至低比特定点数或整数表示,在尽量保持模型性能的前提下,显著降低模型的存储需求与计算开销。相比之下,定点或低比特整数(如INT8、INT4)可大幅减少模型参数与中间激活的存储需求,从而缓解显存与算力瓶颈,但也会带来数值精度下降的问题。因此,传统量化方法在LLM上的应用效果受限,亟需更为精细的量化方案。为应对上述挑战,业界与开源社区在传统量化方法的基础上,发展出多种适应LLM的量化技术,涵盖推理优化、低显存微调和激活量化等关键场景。
2026-04-25 00:30:27
515
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅