- 博客(245)
- 资源 (2)
- 收藏
- 关注
原创 Ubuntu下使用人工智能中的图片无损高清分辨率放大的工具Real-ESRGAN
Ubuntu下使用人工智能中的图片无损高清分辨率放大的工具Real-ESRGAN必须使用阿里源来代理,因为清华源在下载库的时候可能会下载不到!upload:是文件夹,需要处理的图片的文件夹。使用python==3.7。
2024-09-19 07:08:24 759
原创 Rust 常见问题汇总
在 cargo.toml 文件中添加了依赖之后,运行 cargo build 命令时,如果卡在 blocking waiting for file lock on package cache lock 这里,后来发现,Cargo.lock被其他程序正在写入,独占了。一般关掉那个程序就行。原来是在cargo文件夹下面,.package_cache被加锁阻塞。cargo build 一直提示Blocking waiting for file lock on package cache。
2024-09-17 16:04:46 372
原创 未来最好的程序开发语言:Rust - 安装rust
rustup 使用帮助 | 镜像站使用帮助 | 清华大学开源软件镜像站,致力于为国内和校内用户提供高质量的开源软件镜像、Linux 镜像源服务,帮助用户更方便地获取开源软件。本镜像站由清华大学 TUNA 协会负责运行维护。rustup | 镜像站使用帮助 | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror。安装 Rust - Rust 程序设计语言。一门帮助每个人构建可靠且高效软件的语言。
2024-09-17 06:11:16 834
原创 Go 交叉编译
【代码】Go 交叉编译。Mac 下编译 Linux 和 Windows 64位可执行程序Linux 下编译 Mac 和 Windows 64位可执行程序Windows 下编译 Mac 和 Linux 64位可执行程序
2024-09-15 08:02:56 288
原创 golang实现正向代理http_proxy和https_proxy
【代码】golang实现正向代理http_proxy和https_proxy。
2024-09-15 07:52:03 727
原创 vscode中使用go环境配置细节
vscode中使用go环境配置细节4、重启这个容器,使得vscode能够识别$PATH。安装成功后即可正常使用!1、在docker容器中下载了go的sdk。5、打开vscode配置。3、设置go env。
2024-09-08 08:51:41 894
原创 安装系统Windows11过程中没有wifi选项,只有网线连接方式时没有网线的终极解决方案
安装系统Windows11过程中没有wifi选项,只有网线连接方式时没有网线的终极解决方案按Shift+F10(部分笔记本可能是Shift+Fn+F10)打开cmd窗口电脑会重启,再次来到连接网络的页面时选择“我没有Internet连接”的选项,就可以跳过联网了。输入oobe\bypassnro。
2024-09-08 07:41:57 111
原创 Runway删库跑路,备受瞩目的Stable Diffusion v1.5不见了!
Gitee AI 汇聚最新最热 AI 模型,提供模型体验、推理、训练、部署和应用的一站式服务,提供充沛算力,做中国最好的 AI 社区。Hugging Face 模型镜像 - Gitee AI。
2024-09-05 11:29:03 227
原创 Docker 清理和查看镜像与容器占用情况
【代码】Docker 清理和查看镜像与容器占用情况。查看容器占用磁盘大小查看单个image、container大小清理所有废弃镜像与Build Cache
2024-09-05 11:07:15 541
原创 ollama在linux更改模型存放位置,全网首发2024!
ollama在linux更改模型存放位置更改ollama拉取量化模型的存储路径,只需要在启动ollama serve的时候,更改OLLAMA_MODELS环境变量:export OLLAMA_MODELS=/root/autodl-tmp然后启动ollama serve,当然如果以服务运行的话可以:sudo systemctl restart ollama
2024-08-31 07:16:58 350
原创 微调Qwen2:7B模型,加入未知信息语料
对于QWen2这样的模型,在微调的时候,语料的投喂格式满足ChatML这样的格式!!!OpenAI - ChatML下面是ChatML格式的介绍:https://github.com/openai/openai-python/blob/release-v0.28.1/chatml.md传统上,GPT模型使用非结构化文本。ChatGPT 模型需要一种结构化格式,称为 Chat Markup Language 聊天标记语言(简称 ChatML)。ChatML 文档由一系列消息组成。
2024-08-25 11:51:42 809
原创 Linux Nvidia驱动一览
Unix Drivers | NVIDIAUnix Drivershttps://www.nvidia.cn/drivers/unix/
2024-08-22 09:46:05 476
原创 https://developer.nvidia.com/cuda-toolkit-archive
CUDA Toolkit Archive | NVIDIA Developerhttps://developer.nvidia.com/cuda-toolkit-archive
2024-08-20 14:55:22 311
转载 ollama如何保持模型加载在内存(显存)中或立即卸载
或者希望模型无限期地保留在内存中。使用 keep_alive 参数与 /api/generate 或 /api/chat API 端点,可以控制模型在内存中保留的时间。默认情况下,模型在生成响应后会在内存中保留 5 分钟。这允许在您多次请求 LLM 时获得更快的响应时间。然而,您可能希望在 5 分钟内。或者,可以通过在启动 Ollama 服务器时设置环境变量。来更改所有模型在内存中保留的时间。参数相同的参数类型。
2024-08-18 21:13:36 579
原创 Windows11手动安装linux分发版
如果你不想让它安装到C盘,不要双击运行它,直接把.appx后缀修改成.zip,解压即可,把解压后的文件夹,放在你指定的安装路径下,双击运行里面的ubuntu.exe,设置用户名和密码即。或者得到一个appxbuddle文件,把后缀名改成.zip,解压打开,里面有几个appx文件,选择你需要的版本。如果直接双击运行appx,它会直接安装到C盘。下载完成后,得到一个单独的appx文件。
2024-08-06 15:22:51 182
原创 WSL2安装多个Ubuntu实例,大佬带你玩转Linux!!!
WSL2安装多个Ubuntu实例,大佬带你玩转Linux!!!在干净的未安装过ubuntu的windows的系统上,首先我们需要此时,会提示重启系统!!!
2024-08-05 16:00:40 422
原创 Ubuntu安装nvidia-docker并使用的正确方式
ubuntu下自带了docker的库,不需要添加新的源。但是ubuntu自带的docker版本太低,需要先卸载旧的再安装新的。docker.io/nvidia/cuda 项目中国可用镜像列表 | 高速可靠的 Docker 镜像资源镜像列表。ubuntu(24.04)以及WSL2安装docker的详细教程_unbantu安装docker-CSDN博客。docker.io/nvidia/cuda 项目中国可用镜像列表 | 高速可靠的 Docker 镜像资源。
2024-08-04 21:38:39 987
原创 开源大模型的格式转成GGUF,并量化后使用ollama推理
开源大模型的格式转成GGUF,并量化后使用ollama推理使用到的工具:llama.cppollama。
2024-07-27 19:09:06 1061
原创 huggingface里的模型如何下载呢?
加速访问Hugging Face的门户。作为一个公益项目,我们致力于提供稳定、快速的镜像服务,帮助国内用户无障碍访问Hugging Face的资源。
2024-07-27 16:08:31 275
原创 机器翻译BPE编码与subword-nmt碰撞出火花
2016年左右(该论文发表于2016)Neural machine translation(NMT)中有着一个众所周知的问题——稀有词与未知词的翻译问题。一般来说,神经网络中的词表被限制在30000-50000个词汇,但是对于翻译来说,各种词汇都可能出现(比如英语中的复合词汇,网络新词等),这种限制无疑使问题解决得效果大打折扣。
2024-07-12 14:57:16 1013
原创 模型加载20G以上的超大语料,无法加载,怎么办呢?
在做机器翻译的时候,我们的单边语料大约20G大小的纯文本语料,在DataLoader加载的时候不可能一次性加载进来,所以就有了这个超大语料的加载问题。主要就是通过记录每行的偏移量的方式来记录文本位置!
2024-07-12 14:37:45 444
flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar.tar.gz
2021-11-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人