- 博客(903)
- 资源 (30)
- 收藏
- 关注
原创 win11 安装 Claude Code
本文介绍了ClaudeCode的安装与使用指南。主要内容包括:1) 提供官方文档和VSCode插件链接;2) 详细说明Windows、macOS和Linux系统的安装命令;3) 解决安装过程中可能出现的区域限制问题(需设置代理);4) 配置环境变量和模型设置方法;5) 演示基本使用流程,包括项目目录创建和交互式操作;6) 说明如何通过配置文件切换不同API服务(如Deepseek、阿里云百炼)。文档还提及了VSCode插件和桌面版的安装选项,为用户提供了完整的ClaudeCode使用方案。
2026-04-29 06:25:57
846
原创 Win11 安装 nodejs
本文摘要:Node.js安装指南提供了官方资源链接(英文/中文官网、文档、GitHub),重点介绍了Windows系统下的安装注意事项,建议跳过Tools for Native Modules选项。安装完成后可通过命令行验证版本(node -v显示v24.15.0,npm -v显示11.12.1)。文中特别提醒Chocolatey升级了19个相关组件包,并列出具体升级清单。
2026-04-29 05:23:49
320
原创 WSL2 Ubuntu OpenClaw配置Ollama本地大模型
本文介绍了配置本地Ollama服务和OpenClaw的三种方法。首先启动Ollama服务并验证可用性,然后通过命令行、修改配置文件或控制台三种方式配置OpenClaw,指定使用ollama/qwen3.5:9b模型。配置完成后,可通过查看模型状态、测试聊天功能及切换模型来验证配置是否成功。文章提供了详细的配置步骤和注意事项,帮助用户完成本地AI模型的部署与使用。
2026-04-15 19:04:06
248
原创 WSL2 Ubuntu安装Ollama
可以把这个写入到:~/.bashrc,然后:source ~/.bashrc。默认模型存储位置:~/.ollama/models。如搜索:deepseek,Qwen,gemma。可能会卡,稍后再试,或者打开网络代理。包括:将Ollama添加为启动服务。--verbose 显示统计信息。每次回复后都会显示统计。最新版本0.20.7。Ollama中文文档。
2026-04-15 17:43:31
268
原创 OpenClaw 添加在线大模型,百炼免费大模型,qwen/qwen3.5-flash
摘要:本文介绍在Win11/WSL2/Ubuntu24.04环境下配置QwenCloud大模型的过程。首先通过openclaw models list查看可用模型列表,发现缺少qwen3.5-flash模型。然后通过两种方式添加新模型:1) 编辑配置文件openclaw.json添加模型参数;2) 通过控制台界面设置。配置内容包括模型ID、输入类型、上下文窗口(1M)和最大token数(64K)等关键参数。最后可通过命令或界面切换验证模型,使用/model指令或状态检查功能确认当前模型。
2026-04-15 03:57:30
88
原创 OpenClaw 记忆搜索Memory search远程在线embedding模型
本文介绍了在Win11/WSL2/Ubuntu24.04环境下配置OpenClaw使用阿里云百炼远程embedding模型的方法。主要内容包括:1)修改配置文件设置API Key(建议使用环境变量);2)配置记忆搜索功能,支持远程text-embedding-v4模型;3)提供回退本地模型方案;4)验证配置生效的方法,包括热加载、功能测试和日志查看;5)通过命令行测试记忆搜索功能;6)在阿里云控制台查看模型用量统计。所有记忆文件仍存储在本地,仅embedding模型使用远程服务。
2026-04-14 21:18:29
340
原创 Openclaw 切换记忆搜索Memory search本地embedding模型
本文介绍了在WSL2 Ubuntu24.04环境下配置OpenClaw记忆搜索功能的步骤。主要内容包括:1)备份并删除旧记忆索引数据库;2)修改配置启用本地模型记忆搜索,设置GGUF格式模型路径;3)重启服务检查运行状态,处理HuggingFace模型下载问题;4)进行健康检查和日志查看。配置完成后,记忆文件将存储在指定目录,模型文件下载到本地缓存路径。
2026-04-14 16:15:30
328
原创 Hugging Face下载卡住,下载缓慢,设置国内镜像hf-mirror.com
使用国内镜像加速Hugging Face资源下载,可避免超时/失败问题。将export HF_ENDPOINT=https://hf-mirror.com添加到~/.bashrc文件中,执行source ~/.bashrc生效。该方法能显著提升国内用户的模型和数据集下载速度。
2026-04-14 03:36:05
93
原创 WSL2 Ubuntu OpenClaw 配置记忆搜索 Memory search
本文摘要: OpenClaw健康检查显示内存搜索功能存在问题,需配置API密钥或本地模型。解决方案包括:1)设置必要的API密钥;2)安装node-llama-cpp支持本地搜索;3)配置本地Gemma嵌入模型。操作步骤涉及修改配置文件、验证模型状态和测试记忆功能。文档还提供了模型推荐、参数检查方法和常见问题解决方案,帮助用户实现无API密钥的本地记忆搜索功能。关键命令包括状态检查、模型安装和配置修改等。
2026-04-14 03:25:00
879
原创 WSL2,Ubuntu,设置时区为东八区Asia/Shanghai
本文介绍了在WSL2 Ubuntu中配置东八区时区的三种方法。交互式可视化配置适合新手,通过dpkg-reconfigure tzdata命令选择Asia/Shanghai;非交互式方法直接创建软链接和配置文件;systemd方式使用timedatectl命令。针对WSL2重启后时区重置问题,提供了修改wsl.conf的解决方案,关闭Windows时区同步。还给出了时间不同步的修复方法,包括硬件时钟同步和安装时间同步服务。三种方法均可将时区永久设置为Asia/Shanghai(+0800)。
2026-04-14 01:54:30
449
原创 npm install 安装慢,使用国内镜像registry.npmmirror.com
【摘要】解决npm安装openclaw速度慢的三种方案:1)临时使用淘宝镜像(最快推荐):npm install -g openclaw --registry=https://registry.npmmirror.com;2)永久切换国内源:设置镜像后执行常规安装;3)极速方案:安装阿里cnpm工具后使用cnpm install -g openclaw。三种方法均可显著提升下载速度,其中cnpm方案速度最快。(98字)
2026-04-13 02:53:48
200
原创 OpenClaw 安装自带捆绑技能,summarize,session-logs
OpenClaw 安装自带捆绑技能,summarize,session-logs
2026-04-13 02:46:51
827
原创 Win11 WSL2 Ubuntu 安装 OpenClaw
OpenClaw安装与使用指南 OpenClaw是一款AI代理工具,支持通过命令行和Web界面进行交互。安装步骤包括: 准备WSL2环境并安装Ubuntu 24.04 执行官方一键安装脚本 配置大模型API Key(如阿里云百炼或Deepseek) 可选配置联网搜索API Key(推荐Kimi平台) 通过交互式向导完成模型、通道和安全设置 安装完成后,可通过以下方式使用: 命令行:openclaw --version查看版本 Web控制台访问
2026-04-13 00:24:14
791
原创 Win11 Docker Desktop 设置镜像
本文介绍了配置Docker镜像加速器的三种方法。第一种是通过阿里云获取个人专属镜像地址;第二种推荐在Docker设置界面直接修改JSON配置,添加阿里云、网易和百度镜像源;第三种是修改系统配置文件,针对不同操作系统(Windows、Linux、macOS)分别说明了配置文件的存放位置和修改方式。所有方法最终都需要在配置中添加相同的镜像源地址。
2026-04-11 22:36:38
286
原创 Win11 Docker Desktop 迁移虚拟硬盘文件存储位置
摘要:本文介绍了Windows系统中WSL2和Docker Desktop虚拟硬盘文件的默认存储路径(C:\Users\admin\AppData\Local\Docker\wsl),并详细说明了如何将磁盘映像迁移至新位置(如E:\wsl2)。操作步骤包括停止运行容器、查看容器状态、通过Docker Desktop设置或修改.wslconfig文件进行迁移,同时提供了Ubuntu系统迁移的参考方案。文中还列出了相关技术文档和参考资料链接,帮助用户顺利完成迁移过程。
2026-04-11 22:08:23
510
原创 Win11 Docker Desktop安装,迁移,配置镜像
本文提供了Docker在Windows系统上的详细安装指南。主要包括:1)相关官方文档链接;2)安装步骤详解,包括注意事项(如不勾选Windows Containers选项)和自动安装的Windows功能;3)安装验证方法(docker --version命令);4)关键目录和文件位置说明(如Docker安装目录、WSL虚拟硬盘文件路径等);5)Docker Engine配置文件和WSL文件资源访问方式。文章还指出可在Docker Desktop设置界面进行磁盘迁移和镜像设置。
2026-04-11 21:36:59
161
原创 LM Studio 下载模型卡住,下载模型缓慢,设置国内镜像hf-mirror.com
本文介绍了两种解决LMStudio模型下载问题的方法。方法一通过修改软件配置文件,将huggingface.co替换为国内镜像hf-mirror.com,具体操作路径包括修改index.js和main_window.js文件。方法二建议手动从国内镜像站或魔搭社区下载模型文件,并按要求放置在指定目录结构中(如~/.lmstudio/models/厂商/模型名)。其中方法一需要重启LMStudio生效,可能遇到下载速度波动问题,方法二则需要手动管理模型文件路径。
2026-04-11 02:38:13
1447
原创 WSL2 Ubuntu迁移,导出Ubuntu,导入Ubuntu(存储位置)
本文摘要主要介绍了在Windows系统中管理WSL2(Ubuntu 24.04)虚拟硬盘文件的操作指南。内容包括:1)查找虚拟硬盘文件路径;2)关闭WSL系统的命令操作;3)导出、注销和重新导入Ubuntu系统的完整流程;4)设置默认Linux发行版及其他相关命令;5)通过虚拟硬盘文件导入系统的方法。同时提供了查看Ubuntu系统版本信息的命令,并指出以VHD方式导入的系统不会出现在开始菜单中,但仍可正常使用。文章最后还提供了WSL2子系统文件迁移的参考信息。
2026-04-10 21:33:58
681
原创 LM Studio 0.4.10 安装完,不显示显卡信息
本文介绍了模型加载参数设置问题及解决方案。当GPU Offload默认为0且在硬件设置不显示显卡信息时,建议在Runtime中安装CUDA。针对Windows系统下的llama.cpp使用Nvidia显卡加速,需确保安装CUDA12.8加速引擎。同时提到在0.4.9版本中,Harmony和CUDA 12 llama.cpp库会被默认下载安装。
2026-04-10 00:36:12
269
原创 Ubuntu 安装 python
本文介绍了在WSL2 Ubuntu 24.04环境下安装Python 3.13的三种方法,重点推荐使用Deadsnakes PPA安装方式。该方法无需卸载现有Python,通过添加PPA源快速安装最新版Python 3.13及其配套工具(venv、dev),并使用ensurepip升级pip。文章还提供了设置别名简化命令的步骤,同时提醒与Anaconda可能存在的冲突。其他可选方法包括pyenv管理和源码编译安装。安装完成后可通过python3.13命令验证版本,并配置.bashrc设置默认Python和p
2026-04-05 01:22:51
224
原创 win11 安装 WSL2 Ubuntu
本文介绍了Windows Subsystem for Linux (WSL)的安装与使用指南。主要内容包括:1) WSL相关文档资源;2) 通过PowerShell安装WSL2及Ubuntu-24.04的过程,遇到网络问题时需开启网络代理;3) 创建用户及设置root密码的方法;4) 查看和修改WSL发行版版本信息;5) 重命名WSL发行版的操作步骤。文档还提供了常见问题的解决方法,如网络连接错误、用户创建失败等。
2026-04-04 23:43:49
406
原创 vllm 安装
建议在WSL2的Ubuntu中安装vLLM以避免Windows兼容性问题。安装方法:通过阿里云镜像pip install vllm,验证版本后即可使用。主要命令vllm serve支持加载HuggingFace模型或本地路径,可配置张量并行(多GPU)、上下文长度(如32K tokens)和量化选项(如GPTQ-int4)。典型用例包括:32B大模型需2个GPU并行,7B小模型单GPU运行。关键参数:--tensor-parallel-size设置GPU数量,--quantization指定量化方式,--m
2026-04-04 22:44:48
481
原创 windowns Ollama 下载,安装,本地部署大模型
Ollama使用指南摘要 Ollama是一个本地运行大语言模型的工具,支持多种AI模型的下载和管理。主要功能包括:1)通过官网下载安装包或使用PowerShell脚本安装;2)支持搜索和下载不同参数的模型(如deepseek-r1);3)提供命令行交互界面,可查看本地模型列表、运行状态及统计信息;4)允许自定义模型存储位置;5)包含丰富的命令集(pull/run/stop/list等)。典型使用流程:先下载模型(ollama pull),再运行模型(ollama run)。还支持性能监控(--verbose
2026-04-04 22:01:57
602
原创 Anaconda 虚拟环境创建后,切换Python 版本
摘要:Anaconda虚拟环境支持直接修改Python版本,无需重建环境。通过激活环境后执行conda install python=版本号命令即可切换(如3.9/3.10/3.11)。注意同大版本内切换更安全,跨大版本(如2.x↔3.x)可能导致环境损坏。切换后部分依赖包需重装,若环境损坏可删除重建。关键命令:conda install python=目标版本,切换后需用python --version验证。
2026-04-03 00:30:18
106
原创 WLS2 从NAT切换到镜像网络模式,使用Windows的代理网络
WSL2网络代理问题解决方案摘要 针对WSL2无法使用Windows代理网络的问题,推荐启用镜像网络模式。只需在用户目录创建.wslconfig文件,添加镜像网络配置后重启WSL即可。该模式让WSL完全共享Windows网络环境,包括代理设置。要求Windows 11 22H2及以上版本和WSL 0.58.0+版本。若需恢复NAT模式,只需删除或注释配置文件中的镜像网络相关设置并重启WSL。镜像模式是微软官方推荐方案,配置简单且效果最佳,能彻底解决NAT模式下无法使用localhost代理的问题。
2026-04-03 00:28:25
817
原创 ubuntu conda 安装vllm
本文介绍了如何安装最新稳定版vLLM及其CUDA 13.1依赖。首先激活conda环境,然后通过清华镜像源安装最新版vLLM,并指定CUDA 13.1的额外索引URL。安装完成后,可通过Python命令验证vLLM版本,预期输出为vLLM版本:0.18.0。整个过程包括环境准备、软件安装和版本验证三个步骤。
2026-03-31 01:41:14
168
原创 conda 新建虚拟环境
摘要:本文介绍了使用conda创建和管理Python虚拟环境的基本命令。首先使用conda create --name venvname python=3.12.10创建名为"venvname"的Python 3.12.10环境,然后通过conda activate venvname命令激活该环境。这些命令为Python项目提供了隔离的开发环境,确保依赖管理的清晰性和项目间的独立性。
2026-03-31 01:29:28
54
原创 Ubuntu 安装Anaconda
本文介绍了在Linux系统上安装Anaconda的完整步骤:1)更新系统并下载安装脚本;2)运行安装程序,包括接受协议、设置安装路径;3)初始化conda并加载环境变量;4)验证安装。还提供了常用配置选项,如关闭自动激活base环境和设置国内镜像加速下载,以及卸载方法。整个过程详细说明了每个步骤的操作命令和注意事项。
2026-03-31 01:20:42
757
原创 RAG embedding模型不匹配报错AssertionError
摘要:代码报错显示在检索过程中出现维度不匹配的AssertionError,主要原因是embedding模型使用不一致。检查发现代码中存在下划线和短横线混用问题(如text_embedding_v2与"text-embedding-v2")。建议:1)统一命名规范;2)确保嵌入和检索阶段使用相同embedding模型;3)开发阶段更换模型时需删除原向量数据库并重建。关键点在于保持模型版本和命名的一致性。
2025-11-20 23:58:25
245
原创 streamlit run app.py 报ModuleNotFoundError: No module named ‘pyprojroot‘
摘要:运行streamlit run app.py时出现ModuleNotFoundError,提示缺少pyprojroot模块,但实际上该模块已安装。经排查发现根本原因是未安装streamlit包。通过pip install streamlit安装后,成功解决了问题。
2025-11-20 23:47:27
174
原创 win11 安装 flash-attn,flash_attn,flash-attention
本文记录了在Windows 11系统下安装不同版本flash-attention的过程。测试环境包括Python 3.12/3.13、Torch 2.6/2.7和CUDA 12.6/12.8等组合。安装flash-attn 2.5.6、2.6.3和2.7.3版本均成功,但编译过程耗时较长(数小时)。文中提供了详细的安装命令和参数(如--no-build-isolation),并保存了生成的whl文件路径以便后续快速安装。同时提到最新版2.8.3可能安装失败。
2025-11-12 23:21:23
641
原创 MinerU 1.3.12 私有化部署,报错处理
本文介绍了在Windows11环境下使用Python3.12.7安装运行MinerU 1.3.12版PDF处理工具的过程。主要内容包括: 通过修改JSON模板URL解决初始下载问题 使用model-scope下载所需模型到指定目录 新建Python虚拟环境安装指定版本magic-pdf 解决transformers版本冲突问题 配置GPU加速运行,安装CUDA版PyTorch 成功处理380页PDF文档,CPU耗时约37分钟,GPU耗时约10分钟 整个流程涉及环境配置、依赖管理、模型下载和性能优化等关键步骤
2025-11-12 06:45:57
1166
原创 jupyter安装及卸载虚拟内核 python -m ipykernel install
本文介绍了Jupyter Notebook虚拟内核的安装与卸载方法。安装时使用python -m ipykernel install命令,可指定--user参数避免权限问题,并通过--name和--display-name设置内核名称和显示名称。卸载时使用jupyter kernelspec uninstall命令,支持批量删除多个内核。文中还展示了具体操作示例,包括列出已有内核、安装多个新内核(如aid312cpu/gpu等)的过程。安装后无需重启JupyterLab,刷新页面即可生效。
2025-10-22 05:05:57
1301
原创 jupyter lab 关闭密码,取消密码,禁用密码,关闭登录输入密码
本文介绍了JupyterLab和Jupyter Notebook的配置方法。通过生成默认配置文件,修改密码设置(如设置为空密码),并展示了配置文件的存储路径(Windows系统为C:\Users\用户名.jupyter\)。还提供了使用jupyterlab password命令设置空密码的操作步骤,以及环境信息(Anaconda3-2025.06-0-Windows-x86_64-Python3.13.exe)。最后通过jupyter --version命令输出了当前安装的核心包版本信息。
2025-10-22 03:55:14
1092
原创 langchain ModuleNotFoundError: No module named ‘langchain.chains‘
(aid) C:\Users\admin>pip install langchain (最新版本是1.0.1)
2025-10-21 19:46:20
1972
原创 win11 安装NVIDIA多版本cuda 12.4 12.6 12.8 13.0
Windows 11支持多版本CUDA共存与切换。当前系统安装CUDA 13.0,可通过修改环境变量实现版本切换:1)下载所需版本(如12.4/12.6)并自定义安装路径;2)在环境变量中修改CUDA_PATH和Path的路径顺序来切换版本。注意:可选择性安装cuDNN,建议将不同版本安装在不同目录(如D盘),通过调整环境变量优先级实现快速版本切换。
2025-10-21 18:48:07
1474
原创 通用文本嵌入模型iic/gte_Qwen2-1.5B-instruct 使用报错处理
在Windows 11环境下安装iic/gte_Qwen2-1.5B-instruct模型,使用时遇到的一系列问题及解决方案。主要问题包括:sentence-transformers库缺失、transformers版本过高(4.57.1)需要降级至4.42.4、CUDA版本不匹配(13.0与12.4)以及flash_attn安装失败等。最终通过安装对应版本cuda、安装特定版本依赖(如flash_attn 2.6.3配合--no-build-isolation参数)解决
2025-10-21 17:50:43
843
原创 pip安装faiss报错:Could not find a version that satisfies the requirement faiss
pip安装faiss报错:Could not find a version that satisfies the requirement faisspip install faiss-cpu # 社区维护的CPU版本conda install -c conda-forge faiss-cpu # CPU版本conda install -c conda-forge faiss-gpu # GPU版本(需要CUDA)
2025-10-19 16:46:01
790
VMware8.0 安装 Red Hat Enterprise Linux 5.7 64-bit.docx
2020-05-15
ibm-mkt-V2-win-unix及文档.rar
2015-12-13
container-selinux-2.124.0-1.module-el8.1.0+272+3e64ee36.noarch.rpm
2020-04-04
nexus-3.21.1-01-unix.tar.gz.rar
2020-03-29
mysql 8.0 windows 默认my.ini
2020-05-27
ooxml-schemas-1.1.jar
2014-06-29
eclipse mybatis-generator-1.3.2.zip插件
2015-07-25
js jquery.qrcode生成二维码 带logo 支持中文
2016-04-28
MySQL-8.0.20示例数据库sql.zip
2020-05-27
redis-desktop-manager-2019.5.0-win64.rar
2020-03-29
nexus-3.21.1-01-win64.zip.rar
2020-03-29
mysql 5.7 windows 默认my.ini
2020-05-26
nexus-3.20.1-01-mac.tgz
2020-03-29
佳博条码打印机编程接口包tsclib.rar
2015-06-19
佳博条码打印机编程接口包
2015-06-19
Myeclipse10.x_blue_bling_2013_crack
2013-06-29
Myeclipse10.x_blue_bling_2013_注册机
2013-06-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅