- 博客(18)
- 收藏
- 关注
原创 最近试用了FunHPC-AI宝箱-ComfyUI-Plus,使用了dreamshaperXL全能模型,生成了几张国风图,效果真的让人惊叹!
最近试用了FunHPC-AI宝箱-ComfyUI-Plus,使用了dreamshaperXL全能模型,生成了几张国风图,效果真的让人惊叹!🌸
2024-09-12 21:20:32 893
原创 AI对未来教育领域的改变!如何使用ChatGPT,一个高效提问的指令构建模型,通过ChatGPT有效提高学习效率
AI对未来教育领域的改变!如何使用ChatGPT,一个高效提问的指令构建模型,通过ChatGPT有效提高学习效率
2024-09-10 17:36:36 1507
原创 Linux常见运维命令
ipmitool user list 1 出现2 为用户的id 号 ipmitool user set name 2 root 添加账户 ipmitool user set password 2 a123456 设置密码 2为list后的id 号 ipmitool user enable 2 启用该用户。ipmitool lan print ipmitool -I open lan set 1 ipsrc static 设置本地BMC地址为静态,才能设置IP。
2024-09-09 19:28:48 886
原创 配置InfiniBand (IB) 和 RDMA over Converged Ethernet (RoCE) 网络
配置InfiniBand (IB) 和 RDMA over Converged Ethernet (RoCE) 网络。
2024-09-08 21:05:44 772
原创 InfiniBand (IB) 和 RDMA over Converged Ethernet (RoCE)
在超算网络环境中,InfiniBand (IB) 和 RDMA over Converged Ethernet (RoCE) 是两种重要的网络技术,它们旨在提供高性能、低延迟的数据传输能力,适用于大规模并行计算任务。
2024-09-07 22:31:08 1280
原创 要在 Windows 系统中通过 VNC 远程连接到 CentOS 或 Ubuntu 服务器,可以按照以下步骤来配置和使用 VNC 进行远程桌面访问
要在 Windows 系统中通过 VNC 远程连接到 CentOS 或 Ubuntu 服务器,可以按照以下步骤来配置和使用 VNC 进行远程桌面访问
2024-09-06 12:06:07 1836
原创 Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用
Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用
2024-09-05 11:23:40 1100
原创 一台Ubuntu22.04物理机搭建虚拟机云和容器云集群,通过安装ESXi、配置GPU透传、创建虚拟机,然后在虚拟机上搭建集群
一台Ubuntu22.04物理机搭建虚拟机云和容器云集群,通过安装ESXi、配置GPU透传、创建虚拟机,然后在虚拟机上搭建集群
2024-09-04 19:49:55 1128
原创 选择合适的 QinQ 配置方式,可以有效实现多层 VLAN 标签的嵌套和传输
配置灵活QinQ,其中vlan-id1 [ to vlan-id2 ]表示配置待添加VLAN Tag的用户VLAN编号 ,stack-vlan vlan-id3表示添加外层VLAN Tag的VLAN编号。3:执行命令port vlan-stacking vlan vlan-id1 [ to vlan-id2 ] stack-vlan vlan-id3。3. 执行命令if-match vlan-id vlan-id1 [ to vlan-id2 ],配置匹配报文的规则,即指定报文的内层VLAN ID。
2024-09-04 16:02:37 570
原创 搭建Docker私有仓库管理本地的Docker镜像,通过harbor实现Web UI访问和管理私有仓库
启动Docker服务registry如果出现连接超时,可以尝试这个命令会在本地启动一个私有仓库,并将其映射到主机的5000端口。假设你有一个名为my-image其中是你希望存储数据的本地路径。这样,你就可以在本地成功搭建一个Docker私有仓库,并通过harbor该仓库管理你的Docker镜像。
2024-09-03 16:43:54 1449
原创 方案二:解决huggingface下载限制,使用Nginx作为反向代理,搭建一个简单高效的内部镜像缓存服务器
通过搭建内部镜像缓存服务器,可以有效管理和优化大模型文件的下载,减少对外部资源的依赖,提升下载速度并避免频繁受到限制。搭建一个内部镜像服务器来缓存常用的大模型文件,可以有效减少对外部资源的依赖,避免频繁下载导致的限制。如果有多台服务器需要访问镜像,可以考虑搭建负载均衡和高可用性的镜像服务器集群,使用Nginx或其他负载均衡工具(如HAProxy)进行流量分配。
2024-09-02 14:22:17 1316
原创 方案一:解决huggingface镜像下载限制,搭建本地镜像缓存服务器
通过搭建一个内部镜像服务器,可以显著减少对外部资源的依赖,避免因网络问题或下载限制影响模型的使用。无论是通过简单的 Python HTTP Server 还是高效的 Nginx 配置,内部镜像服务器都能帮助更高效地管理和访问 Hugging Face 等平台上的大模型。如果你希望快速搭建一个本地镜像服务器,可以通过 Python 自带的 HTTP Server 来托管本地缓存的模型文件。这将在服务器的 8000 端口启动一个简单的 HTTP 服务器,其他局域网内的机器可以通过。,并保存在内部镜像服务器中。
2024-09-02 14:07:51 885
原创 局域网内设置一台Ubuntu22.04服务器作为pip的镜像站,并更改Nginx服务器的监听端口
局域网内设置一台Ubuntu22.04服务器作为pip的镜像站,并更改Nginx服务器的监听端口,同步多个国内镜像源
2024-09-01 12:00:00 755
原创 如何在Windows和Linux系统中通过ollama部署qwen大语言模型,并实现open-webui的访问
如何在Windows和Linux系统中通过ollama部署qwen大语言模型,并实现open-webui的访问
2024-08-31 20:17:35 1606
原创 在K8S集群中如何搭建一个Linux文件共享服务器,使得所有pod实例可以实现内网文件的高速下载
在Kubernetes (K8S) 集群中,您可以通过以下步骤在集群内的服务器上部署一个文件共享服务器,并在内网中使用这个文件共享服务器提高文件下载的效率。
2024-08-30 17:34:54 1093
原创 Linux系统中如何使用aria2实现多线程下载
aria2 可以从不同的镜像或服务器上分段下载文件,这样可以进一步提高下载速度。如果你有多个下载源,可以利用 aria2 的 --uri-selector 参数来优化下载速度。如果您要下载支持 Metalink 或 BitTorrent 的文件,aria2 也可以自动处理多线程下载。使用 RPC 接口进行下载任务(可以通过编写脚本或使用工具如 aria2 的 Web UI)。aria2 的多线程下载功能是通过分段下载实现的。通过上述方法,您可以充分利用 aria2 的多线程下载功能,提高下载速度和效率。
2024-08-30 16:57:53 620
原创 使用devpi-server搭建pypi本地缓存服务器
如果需要实现缓存功能,可以使用`bandersnatch`、`devpi`等工具同步外部源,然后将这些包存储到`pypiserver`的包目录中。您可以配置多级缓存,即首先尝试从本地的`devpi`或`pypiserver`获取包,如果没有,再从外部源下载并缓存到本地。在缓存服务器上,安装 `devpi-server` 和 `devpi-web`。每次安装包时,`pip`首先会从`pypiserver`获取包,如果没有找到,您可以配置`pypiserver`使用外部镜像源作为备份。
2024-08-30 16:33:57 738 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人