- 博客(268)
- 资源 (33)
- 收藏
- 关注
原创 【以太来袭】4. Geth 原理与解析
在联盟链/私链环境里,节点通常受控、出块频率与 gas 策略可定制。。为此,我当初花了大量的时间去理解这方面的知识点,今天一次性分享给大家。
2026-02-28 08:53:31
615
原创 【以太来袭】3. Geth 知识点归纳
看过我以前博客的小伙伴们应该都知道,在我接触 Hyperledger Besu 之前是先从 Geth 来学习区块链知识的。既然本系列名字叫“以太来袭”,那么怎么能够绕开 Geth 不说呢。因此,从今天开始我将会将之前 Geth 的知识点重新规整,写大概 2 到 3 篇知识分享。题外话:区块链、以太坊这些词现在确实也是个敏感词,很容易牵动大家的情绪(尤其是币圈的小伙伴…)。但是在我这里我们只谈技术。我的本意是让更多的人去了解这项技术,将所有我知道的知识点摊开咯、铺平咯。
2026-02-25 18:31:06
587
原创 【Linux】运维实战笔记 — 我常用的方法与命令
磁盘满了能短期救急的做法我会先用:清理旧日志(但保留备份),压缩归档冷数据,或把某个目录临时挂到另一个磁盘上(mount --bind)。如果是关键组件(内核、数据库、容器 runtime),我会先拍快照或备份数据,并准备回滚计划。我会把这些命令输出复制到一个临时文件,作为后续分析的证据。显示 blocked on write 或 blocked on futex,那我就知道这不是 CPU 算力问题,而是 I/O 或锁竞争。这些命令看起来简单,但用了就知道:在紧急情况下,速度和证据比完美的步骤更重要。
2026-02-01 13:53:27
677
原创 【Linux】说说我对 Wine 与 deepin-wine 的理解
导致我后来养成的一个习惯是:每当某个 Windows 应用“好不容易调通了”,我第一件事不是庆祝,而是把这个容器目录完整备份下来。原因很简单,deepin-wine 的优势在“稳定复用”,而原生 Wine 的优势在“可控演进”。Windows 程序在 Wine 里运行时,仍然是一个普通的 Linux 进程,只不过它调用的是一套“被翻译过的接口”。deepin-wine 在 Ubuntu 上,从来不是“完美适配”,而是“可用性妥协”。在我实际使用中,原生 Wine 最大的成本不在“装”,而在“调”。
2026-01-26 09:19:54
560
原创 【Oracle】Ubuntu 部署 Oracle 10g 的完整实战复盘
说实话,如果是新项目,我首选 Oracle 10g。但工作中你难免会遇到一些老系统的迁移工作,这就没有办法了。之前我也分享过使用 Docker 来进行快速部署,但并不是每个项目都能允许我这样做,因此 Oracle 的 Linux 部署多多少少也要会一点(可能是公司的业务缘故,我参与的项目用 Oracle 的还是比较多)。
2026-01-23 11:12:30
831
原创 【Linux】文件系统与 fsck.ext4 修复 - 我踩过的坑与总结
在我早期使用 Linux 的时候,对磁盘问题的理解非常肤浅:“系统起不来了?那就 fsck 一下试试。直到我遇到ext4 分区无法挂载、系统进入 emergency mode、fsck 直接报错fsck 不是“万能修复键”,而是“最后的外科手术刀”。什么时候能用 fsck,什么时候绝对不能用fsck 到底在“修什么”哪些参数会救命,哪些参数会毁数据。
2026-01-17 15:17:40
632
原创 【Linux】在树莓派上搭建自建 Git 服务(基于 GitLab)- 实战笔记与运维清单
2025 年结束了才发现自己已经很久没有更新文章了。但最近都在忙其他的事情,实在没有多余的精力去写新的分享了(但笔记还是会记录,看看什么时候再分享出来吧)。于是我在重新整理以前的笔记发现,其实有很多都还没有分享过,不如趁此机会都给大家分享一下吧。也许分享的内容有点旧了,但还是希望自己的经验能够帮到更多的人。2020 年我做过一阵子“独立开发者”,并选择将 GitLab Community Edition(CE)部署在树莓派上作为首个尝试。
2026-01-16 14:10:22
1255
1
原创 【从零开始】19. 模型实测与验证
在真正开讲之前需要补充一下“16. 基于 CPU 的转换、量化实现”和“18. 持续优化模型微调”中遗漏的信息。
2025-12-05 11:18:11
998
原创 【从零开始】18. 持续优化模型微调
有小伙伴私信说希望能展开说说如何做模型持续优化,为此临时加开一章,讲讲如何结合 brain-mix 项目的 Unsloth 微调报告进行训练结果分析。首先我们在超参数不变的前提下做三轮训练,每次训练只增加训练数据,看看三轮下来的效果如何。通过损失率(Loss)稳定下降得知,当前模型处于“欠拟合”或者说学习不足的状态。这意味着模型的容量(由 LoRA 参数的 r 决定)可以学习更复杂的模式,但它还没有“看”到足够多的数据来充分学习。简单来说就是模型当前还“学有余力”,但我提供的“学习资料”不足。
2025-11-06 11:10:06
900
原创 【从零开始】17. 中文摘要提取工具
答:Maximal Marginal Relevance (MMR),最大边缘相关性算法。简单来说使用 MMR 的最终目的是为了选出 k 个句子,使得这些句子既与原文主题相关,但又彼此之间不重复。
2025-10-30 11:48:09
770
原创 【以太来袭】2. 节点设计与部署
在实际开始之前,要先决定好要用哪种共识机制。那个时候用的是 Besu 的 22.4 版本。本次 Besu 使用的是 25 版本,经过这么几个大版本升级之后原有的问题应该已经修复了吧…那么本次我们就还是先试试 QBFT 吧。话又说回来,为什么我对 QBFT 共识那么执着呢?那么事不宜迟,我们马上开始吧。
2025-10-22 16:13:11
1045
原创 【Java】基于 Tabula 的 PDF 合并单元格内容提取
而 Tabula 的 SpreadsheetExtractionAlgorithm 算法是处理这种问题的最佳起点,但它提取的结果会是“不规则”的,即每行的单元格数量可能不同。因此本次将采用后处理的方式进行解析,Tabula 更多的只是作内容提取,表格组织还是在后期处理进行的。本次解决问题的核心思路就是通过计算每一个单元格完整的边界框,得到它的 top,left, bottom,right。同理,通过收集所有单元格的 left 坐标和 right 坐标,可以推断出所有“真实”的列边界。”章节里面的那个表格。
2025-10-21 14:42:57
668
原创 【从零开始】16. 基于 CPU 的转换、量化实现
不过这次的 OpenVINO 量化方案我会选择 “OpenVINO IR + IR 量化” 这种方式来实现,前期先以 Weight-only 做 INT4 权重量化,后续还会将其优化成 PTQ 模式,添加 calibration_dataset 做激活校准。没有样本数据,框架就无法知道激活值的实际分布范围。所以,校准数据的目的,是“观察”模型在真实输入下的激活统计,从而避免量化后溢出或精度崩坏。站在我们真实的场景中,QAT 需要重新训练,而且需要全量的训练数据,因此并不适合我们,我才使用 PTQ 的。
2025-10-13 14:06:41
771
原创 【以太来袭】1. 企业以太坊回归
而 Fabric 引入了许多独特的、复杂的概念,如通道 (Channels)、锚定节点 (Anchor Peers)、背书策略 (Endorsement Policies)、成员服务提供者 (MSP) 等,学习曲线非常陡峭。而部署一个生产级的 Fabric 网络,则需要配置 Orderer 节点、Peer 节点、CA (证书颁发机构)、MSP,并定义复杂的通道和背书策略,整个过程涉及的组件和配置文件要多得多,运维也更复杂。而 Fabric 虽为实现复杂的背书策略提供了可能,但也增加了系统的复杂性。
2025-09-26 13:36:58
381
原创 【从零开始】15. “小”模型微调
指标最小值最大值平均值标准差验证集损失2.02372.58822.09950.1262训练集损失1.40402.32191.92960.2101训练耗时(分钟)8.2137.937.0。
2025-09-23 14:32:08
1044
原创 【从零开始】14. 数据评分与筛选
于是最终就变成了,写个自动化脚本遍历所有问答退,并使用 3 个大模型同为一条问答对进行评分,最终取平均分为最终得分(由于大模型各自的机制不一样,若只用一种大模型进行评分未免有些偏颇,既然这样我就同时用 3 个大模型进行评分,效果要好一点)。至于后面根据平均分字段进行删除的就不再将代码贴上来了,各位有兴趣可以到我的 gitee 或者 github 仓库中查阅吧(就根据所有记录“平均分”字段汇总做一个总的平均分,低于分数线的记录直接删除就是了,没有什么可说的)。并且每个行业的情况不一样,感觉没有分享的必要了。
2025-09-14 21:18:50
571
原创 【从零开始】13. 数据增强(Data Augmentation)
书接上回,上一章我们简单地过了一遍如何获取训练数据并通过代码将数据保存到 Elasticsearch 中了,但是保存下来后发现数据量还是不够(总数据量 22w+),这个时候可以选择采用数据增强技术来补充训练数据。同理,这次我也是在 Modelscope、和鲸、飞桨、天池等多个平台获取跟中药相关的开放数据集,由于这次数据集不再是直接的问答数据而是一些内容详情,因此无法直接使用。为了方便数据整理我先按分类将数据集放入最为熟悉的 MySQL 中进行数据“初加工”。处理起来大同小异,就不再叙述了。
2025-09-12 10:52:03
1037
原创 【从零开始】12. 一切回归原点
各位新老朋友,好久不见了。距最后一次更新已有差不多一年的时间了。这期间发生了很多事儿,一度让我走进了人生低谷。现在,一切都已经过去,热爱分享、与君共勉仍是我的初心。一切都“从零开始”吧,这样也不错。言归正传,由于不可抗力的因素“番外篇”就此结束。接下来我将会以“零成本”为目标跟大家一起“搓”一个简单的中药领域 NLP 模型出来,之前未能分享给大家的,接下来将结合新优化一并公开分享。此外,由于 RTX 1060 显卡已被家人征用,因此本次分享将另辟蹊径。整条技术线将以 CPU 为推理单元完成,望周知。
2025-09-10 17:08:15
1104
原创 【从零开始】11. LLaMA-Factory 微调 Qwen 模型(番外篇)
本文将从部署开始,详细讲一下如何使用 llamafactory 对开源模型进行指令微调了,并且在微调过程中我是如何一次一次地进行参数调整的,我也跟各位分享一下。
2024-12-29 22:16:18
2094
原创 【从零开始】10. RAGChecker 提升回答准确率(番外篇)
本文讲述本人使用 RAGChecker 对 RAG 应用调优的过程,里面还会包含一些关于 RAGChecker 的使用意见,希望对各位有用~
2024-12-25 18:27:22
972
原创 【从零开始】9. RAG 应用调优-再续(番外篇)
本文将介绍在 Python 中如何对 CUDA 显存进行监控并在到达阈值时进行显存的清理,希望这个对大家也有用吧。
2024-12-13 15:55:21
552
原创 【从零开始】7. RAG 应用调优(番外篇)
本文讲述如何使用 pressure_util.py 压测工具对基于 transformers 驱动的 RAG 应用进行性能调优的过程(没有用加速框架就是一些基础优化)。
2024-11-23 09:24:14
1327
原创 【从零开始】6. RAG 应用性能压测工具(番外篇)
本文主要讲述 SSE(ServerSent Event)机制,以及如何编写基于 SSE 的压力测试程序,虽然是一个浅显的 Python 实现,但对于希望远程压测的需求来说是够用了(前提是配合其他监控工具使用,因为本工具没有数据统计)。
2024-11-11 11:24:58
1311
原创 【从零开始】5. 向量数据库选型与搭建(番外篇)
本文将结合 docker 版本的 elasticsearch 8.x 给各位展示自封装的 python elasticsearch 工具类。与此同时创建今后演示需要的项目 brain-mix 到 github 库
2024-11-08 11:24:26
1769
原创 【从零开始】4. 搭建 Python 开发环境(番外篇)
主要讲述了python 开发环境的搭建工作,从 anaconda 下载安装到 vscode 插件安装,也希望能够对 python 初学者有点帮助
2024-11-05 17:34:44
1211
原创 【从零开始】3. Ollama 接入开发工具(番外篇)
本文讲述的是如何使用 twinny 将远程 Ollama 算力接入到开发工具中,极大程度释放开发人员生产力。
2024-10-27 10:24:27
1579
2
原创 【从零开始】2. Dell PowerEdge 人工智能服务搭建(番外篇)
本文属于番外篇,讲的是如何从一台服务器裸机到 完成 Ollama 和 Stable Diffusion 部署的全过程
2024-10-26 20:24:30
1396
原创 【Docker】Elasticsearch 8.12 安装与搭建
由于工作过程中硬件资源未能达到要求,现将使用 Elasticsearch 取代原 Redis + MySQL + Milvus 技术栈,在重新搭建的同时记录一下搭建过程(由于之前也分享过 Docker 版本 Elasticsearch 5.x 和 Elasticsearch 7.x 的部署方法,因此本文对分享过的内容将不再重复说明)。
2024-08-11 23:42:03
1649
原创 【Java】记录一次 JMH 性能测试与调优
本文主要通过一次公司“加解密工具”代码优化后,通过JMH进行了性能测试的案例,为大家结合代码讲解以下 JMH 的使用。
2024-07-24 09:31:41
785
原创 【AIGC】Mac Intel 本地 LLM 部署经验汇总(llama.cpp)
看到标题的各位都知道了。是的,终于也轮到 llama.cpp 了。先说结论,本次 llama.cpp 部署已能在 Intel 核心的 MBP 中使用 Metal GPUs 进行推理。
2024-05-20 09:37:48
2130
原创 【AIGC】Mac Intel 本地 LLM 部署经验汇总(CPU Only)
书接上文,我在 ollama 中部署 qwen1_5-14b-chat-q4_k_m.gguf 预量化模型,在非 Stream 模式下需要 89 秒才完成一轮问答,响应速度实在是太慢,后续需要想办法进行优化...
2024-05-13 21:20:28
3723
1
原创 【AIGC】本地部署 ollama + open-webui
本文将记录部署过程中遇到的问题以及解决方式,希望对你有所帮助(open-webui 采用 docker 进行部署)。
2024-05-04 10:04:32
9155
6
原创 【AIGC】本地部署 ollama(gguf) 与项目整合
本文将采用 GGUF 预量化大模型结合 Ollama 对代码进行修改,给小伙伴们演示如何逐步实现非 GPU 资源的本地整合方案。
2024-04-30 09:13:04
3121
原创 【测试】Kali Linux 渗透安全学习笔记(4) - 单一服务器扫描
距离上次做 Kali Linux 分享已经相隔半年之久了,刚好需要主导公司每半年一次的本地安全加固工作,这次将简单分享自己是如何做单一服务器的扫描。
2024-04-22 09:17:42
1270
1
原创 【AIGC】本地部署通义千问 1.5 (PyTorch)
今天想分享如何从零开始在不使用第三方工具的前提下,以纯代码的方式本地部署一套大模型,相信这对于技术人员来说还是非常有用的。
2024-04-12 11:49:06
4356
Scrum简介文档
2016-05-11
FusionCharts+Widgets+PowerCharts+FusionMaps v3.2 全套完美破解(附教程)
2016-05-11
jQuery 图片渐隐切换菜单功能
2016-05-11
jQuery 灯箱示例
2016-05-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅