- 博客(496)
- 资源 (25)
- 收藏
- 关注
原创 Server - 使用 Docker 配置 PyTorch 研发环境
建议使用 Docker 配置 PyTorch 研发环境,原因是部分机器配置差异较大,而且环境各不相同,导致安装到最后仍然无法启动训练任务,浪费大量时间。建议直接使用 Docker + Conda(Mamba) 环境构建虚拟环境,即可支持多数任务。
2025-06-04 10:38:01
1131
原创 什么是热爱编程?
看到下文,感觉自己弱爆了,要重新好好的”热爱编程”。95年的时候,我高中同学郭军买了一本Borland C++手册,我们两个人此后两年没机会碰真的电脑,没见过Tubro C更没见过Borland C++,生看这本书,看了两年,百看不厌。做不到,别轻易说,我热爱编程,热爱学习。
2015-08-11 18:20:46
3564
7
原创 Server - 配置 通义法睿 API 与 大模型服务
通义法睿 API 是阿里云基于通义千问大模型技术推出的法律行业垂类人工智能服务接口,专为各类系统和应用提供专业、高效、可集成的智能法律能力。它以千问大模型为基座,经过 5 亿 + 裁判文书、300 万 + 法律法规及海量专业法律数据的专项训练,综合运用模型精调、强化学习、RAG 检索增强、法律 Agent 及司法专属小模型等先进技术,能够精准理解法律语言、推理法律适用、分析复杂案情。
2026-04-26 15:31:01
599
原创 Server - 配置 SQLBot 智能问数项目
SQLBot 是一款基于大语言模型和 RAG 技术的开源智能问数系统,由 DataEase 团队出品。用户只需用自然语言提问,系统便能自动生成 SQL、查询数据库并返回结果与可视化图表,无需具备 SQL 编写能力即可完成数据分析。SQLBot 支持多种主流数据库,内置工作空间隔离与细粒度权限管控,保障数据安全;同时提供术语库、SQL 示例等训练机制,使问数效果随使用持续优化、越问越准。
2026-04-24 11:12:06
367
原创 Server - 配置 WeKnora 知识库问答项目
WeKnora 是腾讯开源的一款基于大语言模型的企业级文档理解与语义检索框架,核心定位为智能知识管理与问答解决方案,专为处理结构复杂、内容异构的文档场景打造,可广泛应用于企业知识管理、科研文献分析、产品技术支持等多种场景,融合多模态预处理、语义向量索引、智能召回与大模型生成推理,构建起高效可控的文档问答全流程。
2026-04-23 14:02:11
242
原创 VibeCoding - Claude Code 的扩展能力 (Skill | Hook | MCP | Plugin | Command)
Claude Code 的 5 个核心扩展能力,即Hooks、MCP、Plugins、Skills、Slash Commands、扩展机制与实践方法,掌握 CC 自定义能力,实现自动化、标准化的开发工作流。
2026-04-12 14:13:46
502
原创 VibeCoding - Claude Code 的对话技巧与高效协作
在 AI 编程助手日益普及的今天,如何与 Claude Code (CC) 进行高质量的对话,已经成为决定开发效率的关键因素。本文根据实践总结,系统梳理五大核心技巧,帮助CC从能用跨越到用好。
2026-04-12 12:41:35
445
原创 VibeCoding - Claude Code 的 CLAUDE.md 编写指南
CLAUDE.md 从一个空文件开始,每次 Claude 犯错就加一条规则,保持精简,放入 git 与团队共享,这就是项目最有价值的 AI 资产。
2026-04-11 16:50:02
494
原创 VibeCoding - OpenClaw 公网访问配置指南 (自动化)
详细教程:将 OpenClaw Gateway 配置为公网 IP + 端口访问模式
2026-04-11 14:58:47
754
原创 VibeCoding - 配置 Claude Code 接入 Claude 模型
Claude Code 能够读取、编写和修改代码文件,执行 Shell 命令,搜索代码库,管理 Git 操作,甚至并行处理复杂的多步骤任务。无论是调试 Bug、重构代码、解释逻辑,还是从零实现新功能,Claude Code 都能像一位经验丰富的协作者一样参与其中。
2026-04-10 16:34:04
272
原创 Server - 服务器 CentOS 安装与配置 Docker
在 CentOS 上安装与配置 Docker 的核心流程主要包括环境修复、组件安装和网络优化。由于 CentOS 7 已停更,首先需将系统基础 yum 源替换为阿里云历史存档源,以解决依赖下载报错问题。接着,添加 Docker 的国内仓库并安装最新版核心组件,配置服务开机自启。最后,为避免拉取官方镜像超时,必须在配置文件中添加国内镜像加速器并重启服务,即可完成稳定 Docker 环境的搭建。
2026-04-09 15:48:46
299
原创 Server - 查看服务器配置与挂载磁盘
在服务器初始化时,首先需要通过查看服务配置,全面了解当前的硬件资源状态,通常可以利用系统命令,确认服务器中已挂载的系统盘容量以及尚未分配的闲置数据盘。明确目标磁盘后,若该盘为全新状态,需要先使用磁盘管理工具为其创建分区,随后将其强制格式化为 xfs (推荐) 或 ext4 等稳定的文件系统,以构建数据存储的底层结构。完成格式化之后,通过挂载命令将该磁盘分区与系统中的某个特定空目录进行绑定,这样系统和应用程序,就能通过访问该目录来向新磁盘中读写数据。
2026-04-09 13:54:59
317
原创 VideCoding - Claude Code 核心工作流 (Core Workflow)
Claude Code 作为 Anthropic 推出的 CLI 编程助手,经过不断迭代,已经形成了一套成熟高效的工作流程。详细介绍 Claude Code 的核心工作流,帮助开发者更好地利用这款工具提升编程效率。
2026-04-07 14:44:53
666
原创 VideCoding - Claude Code 自动化编程
使用 Claude Code 自动化编程,需把握几个核心要点。拆分任务粒度,将大功能拆解为小步骤,每次聚焦一个目标,避免一次性修改过多代码。复杂实现先进入 Plan 模式,探索代码库设计方案,获批后再编码,减少返工。高危操作务必确认,不跳过 Git 钩子验证,遵循项目现有规范,不随意重构未修改代码。优先使用专用工具提高准确性,及时保存关键信息到项目记忆,帮助后续对话更好理解上下文,提升协作效率。
2026-04-06 18:40:38
267
原创 VideCoding - Claude Code 环境搭建与火山云设置(Coding Plan)
ClaudeCode 是 Anthropic 的官方 CLI 工具,作为交互式代理协助用户完成软件工程任务。它提供文件读写、代码搜索、编辑、Bash 命令执行等专用工具,支持启动子代理(如代码探索、架构规划)处理复杂工作。支持任务管理、计划模式、工作树隔离,帮助用户高效进行代码开发、调试、重构与项目管理。
2026-04-06 13:15:34
1382
原创 AIDD - Protenix-v1 通向高精度开源生物分子结构预测
Protenix-v1(PX-v1)模型,是首个完全开源的结构预测模型,在严格沿用相同的训练数据截止时间、模型规模与推理算力预算的前提下,实现优于AlphaFold3的性能表现。除常规评估外,本文重点验证Protenix-v1推理时尺度缩放(inference-time scaling)特性的有效性:结果表明,提升采样预算(sampling budget)可持续改善预测质量。
2026-03-28 08:55:16
424
原创 LLM - OpenClaw 的架构设计与使用技巧
OpenClaw,曾用名 Clawdbot、Moltbot,是由 Peter Steinberger 打造的开源 AI 智能体,核心定位是将 AI 从仅能输出信息的参谋,升级为直接操控电脑执行任务的执行者,被称为 AI 的数字之手。采用本地优先(local-first)设计理念,可在 Windows、macOS、Linux 全平台私有化部署,所有对话历史、个人偏好与执行数据均存储于用户设备,确保数据主权完全归用户所有。
2026-03-21 21:38:58
672
原创 AIDD - 基于 IsoDDE 精准预测新型生物分子相互作用 (AlphaFold4)
在生物制剂领域中,IsoDDE性能大幅超越现有模型,为抗体与抗原界面预测(Antibody-Antigen Interface Prediction)与CDR-H3 Loop 建模确立全新的行业最优水平。对于小分子结合物,IsoDDE的亲和力预测(Affinity Predictions)效果,超越金标准(Gold-Standard)的基于物理的方法,在无需传统物理模拟流程高额计算开销的前提下,实现了向实验级精度的跨越。
2026-03-19 16:23:25
445
原创 LLM - 网关驱动的智能体运行时(Gateway-driven Agent Runtime) OpenClaw 系统
OpenClaw是可在用户自有设备上运行的个人AI助手。通过您日常使用的渠道以及扩展渠道与您互动。助手支持在macOS、iOS和Android设备上进行语音交互,渲染一个可由用户控制的实时可视化界面(Canvas)。其中,网关(Gateway)仅作为系统的控制平面,而真正的产品核心是这个智能体助理本身。
2026-02-03 16:35:52
319
原创 AIDD - 自主决策实验室 Intrepid Labs 介绍
Intrepid Labs,构建 VALIANT 平台,即 自主驱动实验室(Self-Driving Lab) 平台,开创 自主决策药物制剂(Autonomous Drug Formulation)。Intrepid Lab 于 2023 年从多伦多大学(University of Toronto) 剥离出来,通过 闭环实验(Closed-Loop Experimentation)、机器人技术(Robotics) 和机器学习(Machine Learning) 加速药物开发。
2025-11-11 19:06:50
1785
原创 LLM - 大模型融合 LangChain 与 OpenRouter 的框架
LangChain 与 OpenRouter 的结合使用,为构建灵活且可扩展的大语言模型应用提供优雅的解决方案。LangChain 作为应用开发框架,通过其模块化的链式调用、智能代理和记忆管理机制,为开发者搭建复杂的 LLM 工作流提供了坚实基础;而 OpenRouter 则扮演着统一的模型路由网关角色,将 OpenAI、Anthropic、Google 等数十家模型提供商的接口标准化,无需修改代码即可在 GPT、Claude、Gemini 等不同模型间无缝切换。
2025-11-10 14:51:49
971
原创 AIDD - 药物研发领域的多智能体系统 (Multi-Agent System) 简述
生命科学领域的研究,受限于碎片化的工作流程、范围狭窄的计算模型,以及计算机模拟预测与湿实验验证之间低效的连接机制。生物多智能体系统 (Bio Multi-Agent, BMA),系统整合领域专用基础模型,实现端到端生物学研究的自动化。BMA 包含 8 个协同工作的智能体,由记忆智能体协调调度,记忆智能体通过检索增强生成技术,实现研究过程的迭代优化,整合了涵盖生物学尺度 (DNA、RNA、蛋白质、细胞和化学层面) 的生物计算工具集。BMA 是具有普适性的原生人工智能科学发现框架,印证多智能体系统与基础
2025-10-24 12:45:53
992
原创 AIDD - 前沿生物科技 自主决策实验 (AE) 的简述
到 2030 年,完全集成的机器人技术、硬件和软件将自主地设计、执行和分析跨模态和细胞系统的实验,将研究实验室与制药工作流程无缝连接起来,自主决策实验(Autonomous Experiment),将发现(Discovery)、扩大生产(Scale-up) 和 制造(Manufacturing) 转变为一个连续的(Continuous)、数据驱动(Data-Driven)的流程,全天候 24x7x365 运行,没有人力瓶颈。
2025-10-23 16:14:36
932
原创 AIDD - 前沿生物科技 统一数据基础设施 (UDI) 的相关产品
生物行业的 统一数据基础设施(Unified Data Infrastructure, UDI) 是为了解决基因组学、蛋白质组学、临床试验和真实世界数据等,多源异构数据的爆炸式增长,以及“数据孤岛”挑战而构建的核心架构。通过提供一个标准化、可互操作且安全的数据平台,实现对海量生物医药数据的高效整合、治理、存储和访问,打破信息壁垒,促进数据共享与协作,从而加速从基础研究到药物发现和精准医疗的转化,为 AI 和机器学习模型的开发提供高质量的数据支持。
2025-10-22 17:21:09
665
原创 AIDD - 前沿生物科技 统一数据基础设施 (UDI) 的发展与挑战
到 2030 年,生物技术公司将拥有 统一数据基础设施 (UDI, Unified Data Infrastructure),为团队提供前所未有的实时研发洞察力,为每一项重大决策提供信息,迅速降低研发成本和缩短上市时间。
2025-10-22 10:39:58
1714
原创 AIDD - 前沿生物科技 虚拟细胞 (Virtual Cells) 的相关产品
到 2030 年实现 AI 驱动的虚拟细胞这一愿景,不仅仅代表着一项技术进步,更意味着理解生物学及与之互动的方式将发生根本性的转变。尽管从数据生成到模型验证仍存在重大挑战,但是产业界和学术实验室的先驱们正朝着这个未来迈出重大的步伐。
2025-10-21 18:20:20
1011
原创 AIDD - 前沿生物科技 虚拟细胞 (Virtual Cells) 的发展与挑战
研发精确的 AI 虚拟细胞模型,预示在理解和与生物学互动方式上,颠覆性的范式转变(Transformative Paradigm Shift)。虚拟细胞是细胞的计算模型,预测不同细胞生物学层级在各种起始条件下如何表现。虚拟细胞有许多不同的形式。自下而上模型(Bottom-up models),称为动态全细胞模型(dynamical whole-cell models),自上而下现象学模型(top-down phenomenological models),称为AI虚拟细胞。
2025-10-17 11:49:25
898
原创 AIDD - 生物计算领域的八个前沿展望 (2025年~2030年)
在生物计算中,每一个领域以 2025 年的现实为锚点,投射对于 2030 年的预测。通过这样做,不仅考虑今天所处的位置,还考虑希望被塑造的未来。探讨如果当前的轨迹继续发展,或者如果新的想法得以落实,2030 年会是什么样子。反思 2025 年的现状,确定必须做出哪些改变,才能缩短与目标之间的距离。直面这段旅程的挑战,重点介绍那些已在开创未来之路的实验室、公司和社区。最终的成果是一份既记录当下,又是描绘可能性的快照,是一个用于思考、规划和塑造未来十年生物学与技术的路线图。
2025-10-12 21:15:39
1852
原创 LLM - 使用 FastAPI-MCP 库部署 FastAPI 接口 与 MCP 服务
MCP,即 Model Context Protocol,模型上下文协议,开放协议(Open Protocol),用于规范应用程序为语言模型提供工具和上下文。FastAPI 服务可通过 fastapi-mcp 库构建 MCP 服务,对外提供 MCP 工具。
2025-09-16 12:00:20
1517
原创 LLM - 使用 LangGraph 构建 Plan-and-Execute (计划&执行) 智能体
Plan-and-Execute 使用 LangGraph 构建 “先规划后执行” 的智能体,参考 Plan-and-Solve 和 Baby-AGI 项目的启发。核心思想是:首先生成一个多步骤计划,然后逐项执行。当完成某一任务后,回头审视计划,根据情况进行调整。
2025-08-26 14:56:21
2096
原创 LLM - 使用 vLLM 部署 Qwen2.5-VL-32B 模型 (4卡x4090-49G) (3)
vLLM 是生产环境的高性能大模型推理与服务框架,通过 PagedAttention 机制,将显存占用降低至 1/3,支持在单张 GPU 上并行处理长序列请求,搭配连续批处理与 CUDA 图优化,把LLM 的吞吐量提升 10–24 倍,同时保持毫秒级延迟。支持张量并行、KV 缓存量化、LoRA 插件化加载等特性,是构建可扩展、低成本大模型应用的首选工具。
2025-08-18 17:28:35
1724
原创 LLM - 使用 SGLang 部署 Qwen3-32B + YaRN 扩展 128K 与压测 (2)
YaRN (Yet another RoPE extensioN method),其他 RoPE 扩展方法,是大语言模型设计的高效上下文窗口扩展技术,核心是 NTK-by-parts Interpolation (NTK 分区差值) 和 Pre-Softmax Scaling (预 Softmax 缩放)
2025-08-15 17:11:31
1129
原创 LLM - 使用 SGLang 部署 Qwen3-32B 与 Qwen2.5-VL-32B (1)
SGLang,即 Structured Generation Language for LLMs,用于大语言模型的结构化生成语言,是 Stanford & Berkeley 团队推出的大模型推理引擎,优势是高吞吐 + 可编程。
2025-08-15 14:33:14
1851
原创 LLM - 搭建 MinerU 模型的文档解析服务 API
MinerU 的处理工作流分为 4 个阶段。文档预处理(Document Preprocessing),文档内容解析(Content Parsing),文档内容后处理(Content Post-Processing),格式转换(Format Conversion)。
2025-08-12 15:58:48
1443
原创 LLM - 搭建 Grounded SAM 2 模型的视觉检测与分割服务 API
Grounded-SAM-2 是基于 Grounding DINO 和 SAM2 (Segment Anything Model) 的联合图像分割预测系统。通过 FastAPI 库与 Grounded-SAM-2 源码,搭建算法的 API 服务。
2025-08-12 15:46:01
1076
原创 LLM - LlamaFactory 的大模型推理 踩坑记录
在使用 LlamaFactory 大模型进行推理时,记录了遇到的诸多问题及解决过程,为后续应用提供经验参考。
2025-06-09 16:54:07
964
原创 LLM - 使用原生 Transformer 库的 SFTTrainer 类 LoRA 微调大模型
SFTTrainer 是 Hugging Face TRL 库所提供的有监督微调类,适用于高效微调,适配下游任务,通过大模型结合 LoRA 等参数高效方法,更新少量参数以最小化资源开销。使用原生 Transformer 库的 SFTTrainer 类,也可以更好的熟悉大模型的训练细节,有助于提升大模型领域的认知。
2025-06-04 16:25:22
1653
原创 Server - 优雅的配置服务器 Bash 环境(.bashrc)
登录服务器默认显示简单的环境,需要重新设置 .bashrc,优雅的支持简化的 shell 命令与颜色显示。其中 .bashrc 与 .bash_profile 都位于 /home/[your user name]/` 目录。
2025-04-18 16:28:26
772
原创 Server - 使用 FastAPI + OpenTelemetry + Zipkin 搭建 Python 服务
将 OpenTelemetry 与 FastAPI 集成,可以实时监控基于 FastAPI 的应用程序,从而提高可靠性,帮助尽早发现性能问题。
2025-04-17 19:17:51
1315
原创 LLM - 构建大语言模型的 RAG 的基础流程 教程
RAG(Retrieval-Augmented Generation, 检索增强生成) 是结合信息检索与生成模型的技术,通过引入外部知识库来增强 大语言模型(LLM) 的生成能力。构建 RAG 流程主要包括:需要准备知识文档,转换为文本数据,进行预处理和索引,后续检索。使用嵌入模型,将文本数据转换为向量,存储在向量数据库中。当用户提出查询时,将查询内容,通过嵌入模型转换为向量,然后在向量数据库中,检索与查询最相关的知识片段。
2025-03-31 17:07:59
1267
MMseqs2最新版本可执行文件
2023-07-27
冷冻电镜的低通滤波算法
2022-08-02
ICDAR_2015.zip
2021-05-27
Earthquake - Android Studio 代码
2014-03-24
ContactPicker(选择联系人) - Android
2014-03-20
Solidity Programming Essentials
2018-06-09
craft_models.zip
2021-05-27
Compass-Android
2014-03-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅