- 博客(56)
- 资源 (8)
- 收藏
- 关注
原创 OpenClaw 安装器脚本
在某些 Linux 设置中(尤其是通过系统包管理器或 NodeSource 安装 Node 后),npm 的全局前缀指向 root 拥有的位置。不是必需的,但某些环境仍然需要它(例如通过 git URL 获取软件包或依赖时)。),同时在该前缀下安装专用的 Node 运行时,因此可以在不想改动系统 Node/npm 的机器上使用。install-cli.sh(无需 root 权限的 CLI 安装器)此脚本将。但未安装 Git,安装器会打印 Git for Windows 的链接(Git 要求:如果你选择。
2026-03-08 15:31:01
507
原创 安装OpenClaw
pnpm 需要显式批准带有构建脚本的包。如果你全局安装了 libvips(macOS 上通过 Homebrew 安装很常见)且。并选择列出的包,然后重新运行安装以执行 postinstall 脚本。的输出中,你的 shell 无法找到全局 npm 二进制文件(包括。除非有特殊原因,否则请使用安装器。的输出添加到你的 PATH。,要么安装构建工具(macOS:Xcode CLT +1)安装器脚本(推荐)通过 npm 全局安装。提示:如果你还没有全局安装,请通过。3)从源代码(贡献者/开发)
2026-03-08 15:27:01
637
原创 OpenClaw个人助手设置
本指南是”个人助手”设置:一个专用的 WhatsApp 号码,表现得像你的常驻智能体。仅在工作区是全新的时候创建(删除后不应再出现)。提示:将此文件夹视为 OpenClaw 的”记忆”,并将其设为 git 仓库(最好是私有的),这样你的。给智能体一个工作区(AGENTS)OpenClaw 从其工作区目录读取操作指令和”记忆”。如果你将个人 WhatsApp 关联到 OpenClaw,发给你的每条消息都会变成”智能体输入”。作为智能体工作区,并会在设置/首次智能体运行时自动创建它(加上起始的。
2026-03-08 15:25:38
703
原创 OpenClaw 入门指南
先安装 WSL2,然后在 WSL 内运行 Linux 步骤。⚠️ **Bun 警告(WhatsApp + Telegram):**Bun 与这些渠道存在已知问题。macOS:如果你计划构建应用,安装 Xcode / CLT。5) 私信安全(配对审批)默认姿态:未知私信会获得一个短代码,消息在批准之前不会被处理。**Telegram 私信提示:**你的第一条私信会返回配对码。批准它(见下一步),否则机器人不会响应。),因此群组/渠道会话会被沙箱隔离。最快聊天:打开 Control UI(无需渠道设置)。
2026-03-08 15:09:36
654
原创 VS Code中的提示工程
一旦 AI 开始向你提供你真正需要的代码,你可以从文件中删除示例代码。这通过提供有关您正在处理的文件的上下文信息,帮助使 Copilot Chat 的答案更符合您的代码。对于内联建议,VS Code 会查看你编辑器中的当前和打开的文件,以分析上下文并创建适当的建议。在使用内联建议时,如果在 VS Code 中打开相关文件,有助于设置这个上下文,并让 AI 看到你项目更大的图景。就像你会给同事一个简短的高级介绍一样,在你正在处理的文件中添加一个顶级评论可以帮助人工智能理解你正在创建的整体上下文。
2026-02-25 21:06:22
536
原创 Visual Studio Code 中的 AI 智能操作
这在您寻找与概念相关的代码片段或文档时特别有用,而不是特定的术语,或者当您不知道确切的搜索术语时。如果你不知道要更改的设置的确切名称,可以使用AI根据你的搜索查询帮助找到相关的设置。您还可以在搜索视图中获得由AI生成的关键词建议,以提供相关的替代搜索词。当你在代码中重命名一个符号时,基于符号和代码库的上下文,获得由AI生成的新名称建议。要修复您的应用程序代码中的编码问题,而无需编写提示,您可以使用编辑器智能操作。可选地,通过在聊天提示中提供更多的上下文信息来优化生成的代码。在你的代码中添加注释。
2026-02-25 21:03:44
945
原创 GitHub Copilot 快速入门
在这份实践教程中,你将构建完整的任务管理网页应用,同时探索VS Code的AI能力:智能内嵌建议、与代理的自主功能开发、内联聊天的精准编辑、集成的智能行为以及强大的自定义选项。像提交信息生成这样的智能行为展示了人工智能如何自然地融入你现有的工作流程,而无需你切换到聊天界面。让我们为你的项目创建一个完整的个性化设置。你已经构建了一个完整的任务管理应用,并学会了如何有效地利用 VS Code 的核心功能与 AI 合作。完成本教程后,你将拥有一个可用的网页应用和一个根据你的开发风格调整的个性化AI编码配置。
2026-02-25 20:41:34
1236
原创 用VS Code搭建GitHub Copilot
要在 VS Code 中使用 Copilot,你需要用你的 GitHub 账号访问 GitHub Copilot。你可以在工作区或用户层面配置设置。如果你的Copilot订阅与GitHub Enterprise(GHE)账户关联,你可以用你的GEE凭证在VS Code中登录Copilot。如果你的Copilot订阅关联到另一个GitHub账户,请按照以下步骤在VS Code中退出你的GitHub账户,然后用另一个账户登录。如果你之前禁用了内置的AI功能,更新到新版本的VS Code时,你的选择会被尊重。
2026-02-24 15:04:42
1009
原创 GitHub Copilot 教程
代理可以在本地的VS Code中运行进行交互式工作,在机器后台运行以实现自主任务,或者在云端通过拉取请求实现团队协作。给代理一个高级任务,它会将工作拆分成步骤,编辑文件,运行终端命令,调用工具,并在遇到错误或测试失败时自我纠正。每个任务都运行在一个代理。把一个失败的测试指向一个代理,它会读取错误,追踪代码库的根本原因,应用修复,然后重新运行测试以确认。用自然语言描述一个特征,代理搭建项目架构,跨多个文件实现逻辑,并运行测试以验证结果。中,这是一个持续存在的对话,你可以跟踪、暂停、继续或交接给另一个代理。
2026-02-24 15:03:18
1322
原创 Gemini3 开发指南 | Gemini AI 开发文档
Gemini 3 是我们迄今为止最智能的模型系列,建立在先进的推理技术基础上。它旨在通过掌握代理工作流、自主编码和复杂的多模态任务,将任何想法变为现实。本指南介绍了 Gemini 3 模型系列的主要功能,以及如何充分利用这些功能。
2026-01-16 23:40:05
1333
2
原创 LangChain基本概念
本指南更广泛地解释了 LangChain 框架和 AI 应用程序背后的关键概念。这将提供实际上下文,使理解此处讨论的概念变得更加容易。概念指南不包括分步说明或特定实现示例,这些示例可在。我们建议您在深入研究概念指南之前至少完成一个。有关详细的参考资料,请参阅。
2025-06-03 23:07:28
626
原创 LangChain操作指南
它与 LangChain 和 LangGraph 无缝集成,您可以在构建时使用它来检查和调试链和代理的各个步骤。LangGraph 是 LangChain 的扩展,旨在 通过将步骤建模为图形中的边和节点,使用 LLM 构建健壮且有状态的多参与者应用程序。评估性能是构建 LLM 支持的应用程序的重要组成部分。有关开始使用来自特定提供商的嵌入模型的详细信息,请参阅。查询分析是使用 LLM 生成要发送到检索器的查询的任务。包含工具的描述(传递给语言模型)以及要调用的函数的实现。有关提取的高级教程,请查看。
2025-06-03 23:05:50
1966
原创 Markdown 工具集合 -- 支持 Markdown 的应用程序和组件
BatNoter 是一个开源的、自托管的 Web 应用程序,用于在 Markdown 中做笔记。Byword 是一款功能强大的 Markdown 编辑器,适用于 macOS 和 iOS。Bear 是一款适用于 macOS 和 iOS 设备的 Markdown 笔记应用程序。FSNotes 是适用于 macOS 和 iOS 的 Markdown 笔记应用程序。Imdone 是一个基于 Markdown 的看板,位于您的笔记、文档和代码中。
2025-04-20 09:39:26
4720
原创 markdown语法大全- 最新markdown中文文档
BatNoter 是一个开源的、自托管的 Web 应用程序,用于在 Markdown 中做笔记。Byword 是一款功能强大的 Markdown 编辑器,适用于 macOS 和 iOS。Bear 是一款适用于 macOS 和 iOS 设备的 Markdown 笔记应用程序。FSNotes 是适用于 macOS 和 iOS 的 Markdown 笔记应用程序。Imdone 是一个基于 Markdown 的看板,位于您的笔记、文档和代码中。
2025-04-20 09:37:04
5015
原创 nginx 配置https
配置 HTTPS 服务器要配置 HTTPS 服务器,ssl参数 必须在块中的上启用, 并且应指定和文件的位置:server {;;;aNULL:!MD5;...服务器证书是一个公共实体。它被发送到连接到服务器的每个客户端。私钥是一个安全实体,应存储在文件中 受限访问,但是,它必须可由 nginx 的主进程读取。私钥可以交替存储在与证书相同的文件中:在这种情况下,还应限制文件访问权限。尽管证书和密钥存储在一个文件中, 仅将证书发送到客户端。指令和。
2025-02-26 20:07:26
1739
原创 Ollama Linux 部署指南
驱动程序上游到官方 Linux kernel 源,版本较旧,可能不支持所有 ROCm 功能。提供的最新驱动程序,以便为您的 Radeon 提供最佳支持 GPU 的 GPU 中。环境变量替换为安装脚本来安装特定版本的 Ollama,包括预发行版。从 bin 目录中删除 ollama 二进制文件(或者。注意] 如果要从以前的版本升级,则应使用。将 Ollama 添加为启动服务(推荐)安装 AMD ROCm 驱动程序(可选)安装 CUDA 驱动程序(可选)注意] 虽然 AMD 贡献了。
2025-02-21 23:11:09
944
原创 Ollama Docker 镜像部署
如果您在 NVIDIA JetPack 系统上运行,Ollama 无法自动发现正确的 JetPack 版本。将环境变量 JETSON_JETPACK=5 或 JETSON_JETPACK=6 传递给容器以选择版本 5 或 6。要使用带有 AMD GPU 的 Docker 运行 Ollama,请使用。安装 NVIDIA Container Toolkit 软件包。安装 NVIDIA Container Toolkit 软件包。配置 Docker 以使用 Nvidia 驱动程序。
2025-02-21 23:09:51
630
原创 Ollama 部署指南(Windows)
Ollama 安装不需要 Administrator,默认情况下安装在您的主目录中。安装 Ollama 后,您将需要额外的空间来存储大型语言模型,其大小可能为数十到数百 GB。如果您的主目录没有足够的空间,您可以更改二进制文件的安装位置和模型的存储位置。Ollama 使用 unicode 字符进行进度指示,在 Windows 10 中,这些字符可能会在某些较旧的终端字体中呈现为未知方块。它安装在您的帐户中,不需要管理员权限。要更改 Ollama 存储下载模型的位置而不是使用您的主目录,请设置环境变量。
2025-02-21 23:07:13
2417
原创 Grok 使用指南
这张图片是一张太空区域的照片,特别是 Carina 星云的一部分,由 James Webb 太空望远镜拍摄。如果您想要更精细的按请求使用情况跟踪,API 响应包括一个使用情况对象,该对象提供有关提示(输入)和完成(输出)令牌使用情况的详细信息。生成 API 密钥后,我们需要将其保存在安全的地方!将 xAI API 密钥导出为环境变量后,您就可以发出第一个 API 请求了。当您使用 API 密钥时,您需要为使用的令牌数量付费。在本指南中,我们将引导您了解使用 xAI API 的基础知识。
2025-02-21 23:02:19
2121
原创 Grok介绍
是您可以在 X 平台上直接与之交互的对话式 AI,而 xAI API 是一个 DIY 工具包,供开发人员将 AI 驱动的功能构建到自己的软件中。从本质上讲,Grok on X 是一个即用型聊天机器人,而 xAI API 提供了创建新的 AI 体验的构建块。由于这些是单独的产品,因此您在 X(例如 X Premium)上的购买不会影响您在 xAI API 上的服务状态,反之亦然。受《银河系漫游指南》的启发,Grok 是一个最大限度地寻求真相的 AI,可提供关于宇宙的有洞察力的、未经过滤的真相。
2025-02-21 21:38:31
1229
原创 Ollama 快速入门
Ollama 是一个轻量级的可扩展框架,用于在本地计算机上构建和运行语言模型。它提供了一个用于创建、运行和管理模型的简单 API,以及一个可在各种应用程序中轻松使用的预构建模型库。注意] 您应该至少有 8 GB 的 RAM 来运行 7B 型号,16 GB 的 RAM 来运行 13B 的型号,32 GB 的 RAM 来运行 33B 型号。Ollama 库中的模型可以通过提示进行自定义。Ollama 有一个用于运行和管理模型的 REST API。指令替换为要导入的模型的本地文件路径。停止当前正在运行的模型。
2025-02-21 21:34:11
944
原创 Ollama 开发指南
macOS Apple Silicon 支持内置于 Ollama 二进制文件中的 Metal。重要] ROCm 与 Visual Studio CMake 生成器不兼容。重要] CUDA 仅与 Visual Studio CMake 生成器兼容。如果未找到这些库,Ollama 将不会与任何加速库一起运行。重要] 在运行 CMake 之前,请确保满足先决条件。重要] 在运行 CMake 之前,请确保满足先决条件。Windows ARM 目前不支持其他加速库。macOS (英特尔)
2025-02-16 23:03:57
599
原创 Spring Boot 开发入门
一个 uber jar 将应用程序的所有依赖项中的所有类打包到一个存档中。我们通过创建一个完全独立的可执行 jar 文件来完成我们的示例,我们可以在生产环境中运行该文件。可执行 jar(有时称为“uber jar”或“fat jar”)是包含已编译类以及代码运行所需的所有 jar 依赖项的存档。引导我们的应用程序,启动 Spring,而 Spring 又启动自动配置的 Tomcat Web 服务器。同样,您会看到现在还有许多额外的依赖项,包括 Tomcat Web 服务器和 Spring Boot 本身。
2025-02-16 17:16:10
763
原创 OpenAI 快速入门
要在 Node.js、Deno 或 Bun 等服务器端 JavaScript 环境中使用 OpenAI API,您可以使用。将 OpenAI API 密钥导出为环境变量后,您就可以发出第一个 API 请求了。提供了一个简单的接口,用于自然语言处理、图像生成、语义搜索和语音识别。(或 Deno 或 Bun 的等效命令)。片刻之后,您应该会看到 API 请求的输出!与您选择的 HTTP 客户端一起使用,也可以使用我们的。了解如何发出您的第一个 API 请求。的类似人类的响应,创建用于语义搜索的。
2025-02-16 17:06:28
734
原创 Spring AI 介绍
这意味着就像欧几里得几何中平面上的点可以根据其坐标来接近或远一样,在语义空间中,点的接近反映了含义的相似性。在这个多维空间中,关于相似主题的句子被放置在更近的位置,就像图表上彼此靠近的点一样。上表中的最后一行接受文本作为输入并输出数字,通常称为嵌入文本,表示 AI 模型中使用的内部数据结构。像 GPT 这样的模型的不同之处在于它们的预训练性质,如 GPT 中的“P”所示——聊天生成预训练转换器。然而,对于机器学习专家来说,这是一个具有挑战性的过程,并且由于 GPT 等模型的大小,它非常耗费资源。
2025-02-09 10:19:51
2451
原创 Rust 语言入门
Rust 使 对您的编辑或工具或代码所在的位置没有特定要求,因此 如果您更喜欢使用集成开发环境 (IDE) 而不是 命令行,请随意使用您最喜欢的 IDE。对于简单的程序来说,只编译 是可以的,但作为你的项目 增长,您将需要管理所有选项并轻松共享您的 法典。接下来,我们将向您介绍 Cargo 工具,它将帮助您编写 真实世界的 Rust 程序。现在您已经安装了 Rust,是时候编写您的第一个 Rust 程序了。这不重要 到你的代码所在的 Rust,但对于本书中的练习和项目, 我们建议在你的主目录中创建一个。
2025-02-04 14:10:13
1396
1
原创 模型蒸馏(ChatGPT文档)
您的完成项可能包含敏感信息,因此,您可能需要考虑创建一个具有有限访问权限的新。蒸馏过程的第一步是使用像 OR 符合您的标准的大型模型产生良好的结果。微调工作完成后,您可以对其运行 evals 以查看它与基本小型和大型模型的叠加情况。您可以使用存储的完成来评估较大模型和较小模型在任务中的性能,以建立基线。接下来,您可以选择存储的补全子集作为训练数据,以微调较小的模型,例如 .对于特定的任务子集,您可以将较小模型的性能提升到与大型模型相同的级别。产品中选择微调模型,以使用微调的小模型生成新的完成。
2025-02-03 17:47:31
1642
1
原创 nginx 新手指南
本指南对 nginx 进行了基本的介绍,并描述了一些 可以用它完成的简单任务。假设 nginx 已经安装在阅读器的机器上。如果不是,请参阅页面。本指南介绍如何启动和停止 nginx,并重新加载其 configuration,解释了结构 的配置文件中,介绍如何设置 nginx 要提供静态内容,如何将 nginx 配置为代理 服务器,以及如何将其与 FastCGI 应用程序连接。nginx 有一个主进程和几个 worker 进程。主进程的主要目的是读取和评估配置, 并维护工作进程。工作进程对请求进行实际处理。
2025-02-03 16:52:48
1225
原创 Nginx 中文文档
安装 nginx从源构建 nginx新手指南管理员指南控制 nginx连接处理方法设置哈希调试日志记录到 syslog配置文件测量单位命令行参数适用于 Windows 的 nginx支持 QUIC 和 HTTP/3nginx 如何处理请求服务器名称使用 nginx 作为 HTTP 负载均衡器配置 HTTPS 服务器nginx 如何处理 TCP/UDP 会话使用 njs 编写脚本“nginx”章节 “开源应用程序的架构”
2025-02-03 14:26:39
1399
原创 Kafka 使用说明(kafka官方文档中文)
但是,值得注意的是,对于生产部署,使用绝对路径始终是可取的。这些示例配置文件(包含在 Kafka 中)使用您之前启动的默认本地集群配置 并创建两个连接器:第一个是源连接器,它从输入文件中读取行并将每个行生成到 Kafka 主题 第二个是接收器连接器,它从 Kafka 主题中读取消息,并在输出文件中将每个消息生成为一行。在本快速入门中,我们将了解如何使用导入数据的简单连接器运行 Kafka Connect 从文件导出到 Kafka 主题,并将数据从 Kafka 主题导出到文件。这些事件被组织并存储在。
2025-02-01 12:54:37
2077
原创 Kafka中文文档
Kafka 中的主题始终是多创建者和多订阅者:一个主题可以有零个、一个或多个向其写入事件的创建者,以及订阅这些事件的零个、一个或多个使用者。为了让您实施任务关键型使用案例,Kafka 集群具有高度可扩展性 和容错:如果它的任何服务器出现故障,其他服务器将接管它们的工作以确保 连续运行,不会丢失任何数据。:它们允许您编写分布式应用程序和微服务,这些应用程序和微服务可以读取、写入、 并行、大规模和以容错方式处理事件流,即使在网络的情况下也是如此 问题或机器故障。是订阅(读取和处理)这些事件的客户端应用程序。
2025-02-01 12:53:07
1571
1
原创 Docker 官方开发文档 中文
该应用程序是一个简单的待办事项应用程序,因此您可以随意添加一两个项目,将一些项目标记为已完成,甚至删除一个项目。现在,您将对其进行修改以返回三条随机消息中的一条(您可以选择)。之所以能够做到这一点,是因为 1) 每个容器中运行的进程正在监视和响应文件更改,以及 2) 文件与容器化环境共享。一旦您开始考虑使用容器,您几乎可以创建任何环境并轻松地与您的团队共享。如果您刷新浏览器,您应该会看到新的问候语。启动并运行此环境后,您就可以对应用程序进行一些更改,并了解 Docker 如何帮助提供快速反馈循环。
2024-12-22 11:16:50
2440
ZhongJunTools_V1.2.22_online.zip
2021-02-09
BrnMall-master (4.1.113).zip
2019-11-29
helix demo代码
2020-09-24
使用.net 程序集 对windows api 的封装
2019-08-14
使用.net 程序集 对windows api 的封装(源码)
2019-08-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅