python
文章平均质量分 51
aiotud
人工智能Developer
展开
-
vscode高艳的主题:Shades of Purple
vscode高艳的主题:Shades of Purple原创 2024-09-21 16:16:37 · 0 阅读 · 0 评论 -
Python AI 应用开发:日期时间格式化(带毫秒)
【代码】Python AI 应用开发:日期时间格式化(带毫秒)原创 2024-09-19 09:20:25 · 92 阅读 · 0 评论 -
Ubuntu下使用人工智能中的图片无损高清分辨率放大的工具Real-ESRGAN
Ubuntu下使用人工智能中的图片无损高清分辨率放大的工具Real-ESRGAN必须使用阿里源来代理,因为清华源在下载库的时候可能会下载不到!upload:是文件夹,需要处理的图片的文件夹。使用python==3.7。原创 2024-09-19 07:08:24 · 587 阅读 · 0 评论 -
安装diffvg
t安装diffvgorch出现 undefined symbol: iJIT_NotifyEvent。原创 2024-09-08 19:17:14 · 317 阅读 · 0 评论 -
cat写入文件内容
【代码】cat写入文件内容。原创 2024-09-07 21:19:39 · 141 阅读 · 0 评论 -
jupyter里怎么设置代理下载模型
【代码】jupyter里怎么设置代理下载模型。原创 2024-09-05 15:44:22 · 299 阅读 · 0 评论 -
Runway删库跑路,备受瞩目的Stable Diffusion v1.5不见了!
Gitee AI 汇聚最新最热 AI 模型,提供模型体验、推理、训练、部署和应用的一站式服务,提供充沛算力,做中国最好的 AI 社区。Hugging Face 模型镜像 - Gitee AI。原创 2024-09-05 11:29:03 · 215 阅读 · 0 评论 -
Docker 清理和查看镜像与容器占用情况
【代码】Docker 清理和查看镜像与容器占用情况。查看容器占用磁盘大小查看单个image、container大小清理所有废弃镜像与Build Cache原创 2024-09-05 11:07:15 · 540 阅读 · 0 评论 -
Linux doc、docx转pdf
【代码】Linux doc、docx转pdf。原创 2024-09-03 21:59:47 · 140 阅读 · 0 评论 -
ollama在linux更改模型存放位置,全网首发2024!
ollama在linux更改模型存放位置更改ollama拉取量化模型的存储路径,只需要在启动ollama serve的时候,更改OLLAMA_MODELS环境变量:export OLLAMA_MODELS=/root/autodl-tmp然后启动ollama serve,当然如果以服务运行的话可以:sudo systemctl restart ollama原创 2024-08-31 07:16:58 · 326 阅读 · 0 评论 -
ollama在2024.8月发布的最新包的安装方式
ollama在最新的发布中,使用了自己官网的ollama镜像,这样就不用使用魔法进行下载了。原创 2024-08-31 06:51:26 · 847 阅读 · 0 评论 -
ChatGLM3-6B-128k针对word文档进行回答问题
【代码】ChatGLM3-6B-128k针对word文档进行回答问题。原创 2024-08-31 01:07:08 · 156 阅读 · 0 评论 -
ChatML格式
【代码】ChatML格式。原创 2024-08-25 14:27:55 · 201 阅读 · 0 评论 -
微调Qwen2:7B模型,加入未知信息语料
对于QWen2这样的模型,在微调的时候,语料的投喂格式满足ChatML这样的格式!!!OpenAI - ChatML下面是ChatML格式的介绍:https://github.com/openai/openai-python/blob/release-v0.28.1/chatml.md传统上,GPT模型使用非结构化文本。ChatGPT 模型需要一种结构化格式,称为 Chat Markup Language 聊天标记语言(简称 ChatML)。ChatML 文档由一系列消息组成。原创 2024-08-25 11:51:42 · 802 阅读 · 0 评论 -
Linux Nvidia驱动一览
Unix Drivers | NVIDIAUnix Drivershttps://www.nvidia.cn/drivers/unix/原创 2024-08-22 09:46:05 · 474 阅读 · 0 评论 -
https://developer.nvidia.com/cuda-toolkit-archive
CUDA Toolkit Archive | NVIDIA Developerhttps://developer.nvidia.com/cuda-toolkit-archive原创 2024-08-20 14:55:22 · 301 阅读 · 0 评论 -
ollama如何保持模型加载在内存(显存)中或立即卸载
或者希望模型无限期地保留在内存中。使用 keep_alive 参数与 /api/generate 或 /api/chat API 端点,可以控制模型在内存中保留的时间。默认情况下,模型在生成响应后会在内存中保留 5 分钟。这允许在您多次请求 LLM 时获得更快的响应时间。然而,您可能希望在 5 分钟内。或者,可以通过在启动 Ollama 服务器时设置环境变量。来更改所有模型在内存中保留的时间。参数相同的参数类型。转载 2024-08-18 21:13:36 · 559 阅读 · 0 评论 -
ubuntu新增用户并能使用sudo
【代码】ubuntu新增用户并能使用sudo。原创 2024-08-17 13:19:55 · 104 阅读 · 0 评论 -
apt下载时能够上使用代理
【代码】apt下载时能够上使用代理。原创 2024-08-16 23:10:19 · 122 阅读 · 0 评论 -
代理用上了,docker都不能用的解决方案
【代码】代理用上了,docker都不能用的解决方案。原创 2024-08-13 20:46:11 · 426 阅读 · 0 评论 -
labelimg加载已经标注好的图形
【代码】labelimg加载已经标注好的图形。原创 2024-08-11 15:10:23 · 401 阅读 · 0 评论 -
WSL2安装多个Ubuntu实例,大佬带你玩转Linux!!!
WSL2安装多个Ubuntu实例,大佬带你玩转Linux!!!在干净的未安装过ubuntu的windows的系统上,首先我们需要此时,会提示重启系统!!!原创 2024-08-05 16:00:40 · 417 阅读 · 0 评论 -
Ubuntu安装nvidia-docker并使用的正确方式
ubuntu下自带了docker的库,不需要添加新的源。但是ubuntu自带的docker版本太低,需要先卸载旧的再安装新的。docker.io/nvidia/cuda 项目中国可用镜像列表 | 高速可靠的 Docker 镜像资源镜像列表。ubuntu(24.04)以及WSL2安装docker的详细教程_unbantu安装docker-CSDN博客。docker.io/nvidia/cuda 项目中国可用镜像列表 | 高速可靠的 Docker 镜像资源。原创 2024-08-04 21:38:39 · 970 阅读 · 0 评论 -
开源大模型的格式转成GGUF,并量化后使用ollama推理
开源大模型的格式转成GGUF,并量化后使用ollama推理使用到的工具:llama.cppollama。原创 2024-07-27 19:09:06 · 1059 阅读 · 0 评论 -
huggingface里的模型如何下载呢?
加速访问Hugging Face的门户。作为一个公益项目,我们致力于提供稳定、快速的镜像服务,帮助国内用户无障碍访问Hugging Face的资源。原创 2024-07-27 16:08:31 · 275 阅读 · 0 评论 -
机器翻译BPE编码与subword-nmt碰撞出火花
2016年左右(该论文发表于2016)Neural machine translation(NMT)中有着一个众所周知的问题——稀有词与未知词的翻译问题。一般来说,神经网络中的词表被限制在30000-50000个词汇,但是对于翻译来说,各种词汇都可能出现(比如英语中的复合词汇,网络新词等),这种限制无疑使问题解决得效果大打折扣。原创 2024-07-12 14:57:16 · 1013 阅读 · 0 评论 -
模型加载20G以上的超大语料,无法加载,怎么办呢?
在做机器翻译的时候,我们的单边语料大约20G大小的纯文本语料,在DataLoader加载的时候不可能一次性加载进来,所以就有了这个超大语料的加载问题。主要就是通过记录每行的偏移量的方式来记录文本位置!原创 2024-07-12 14:37:45 · 444 阅读 · 0 评论 -
深入理解model.eval()与torch.no_grad()
使用model.eval()切换到测试模式,不会更新模型的w(权重),b(偏置)参数通知dropout层和batchnorm层在train和val中间进行切换:在train模式,dropout层会按照设定的参数p设置保留激活单元的概率(保留概率=p,比如keep_prob=0.8),batchnorm层会继续计算数据的mean和var并进行更新在val模式下,dropout层会让所有的激活单元都通过,而batchnorm层会停止计算和更新mean和var,直接使用在训练阶段已经学出的mean和var值原创 2024-07-10 18:36:28 · 284 阅读 · 0 评论 -
Ubuntu24.04 apt换国内源 清华源 阿里源 中科大源 163源
作为 LTS 版本,它会有 5 年的常规维护和安全更新。如果订阅 Ubuntu Pro,还能享受额外7年的支持。也就是说, Ubuntu Pro将享有长达 12 年的系统更新保障!接下来,我们将重点介绍 Ubuntu 24.04 LTS 中那些值得关注的新特性,以方便你决定是否进行升级。Ubuntu 24.04 LTS,代号 「Noble Numbat」,即将与我们见面!Canonical 已经宣布, Ubuntu 24.04 LTS。源文件地址 已经更换为。原创 2024-06-30 17:18:31 · 2858 阅读 · 0 评论 -
Rocky Linux设置静态IP
【代码】Rocky Linux设置静态IP。原创 2024-06-22 22:35:19 · 1050 阅读 · 0 评论 -
Rocky Linux archive下载地址
Index of /vault/rocky/https://dl.rockylinux.org/vault/rocky/原创 2024-06-22 22:03:04 · 259 阅读 · 0 评论 -
Centos Stream9 和Centos Stream10的下载网址
Centos Stream9 和Centos Stream10的下载网址原创 2024-06-22 15:33:50 · 857 阅读 · 0 评论 -
大模型下nohup运行后台进程
在大模型的情况下,往往可以使用screen命令进行操作,但是screen不能操作写入日志,因此,为了保留痕迹,使用nohup进行操作后台运行。原创 2024-06-22 10:53:20 · 225 阅读 · 0 评论 -
Windows下设置pip代理(proxy)
但是,当这台被限制上网时(公司安全考虑)就不能连外网了,如果懒得一个个下载,又懒得找运维开网络权限时,可以选择设置代理来解决。正常网络情况下我们安装如果比较多的python包时,会选择使用这种。2、打开上图的文件夹中的文件pip.ini。1、命令设置代理,生成pip.ini文件。国内的镜像来加快下载速度。原创 2024-06-03 23:06:46 · 1763 阅读 · 0 评论 -
VSCode配置cuda C++编程代码提示的详细步骤
VSCode配置cuda C++编程代码提示的详细步骤:1、cuda编译环境的安装:2、配置nvcc命令以及库函数的指向3、vscode里安装如下的插件:4、wsl ubuntu安装后以及三个插件安装后的工作原创 2024-03-16 13:51:37 · 933 阅读 · 0 评论 -
WSL卸载子系统
【代码】WSL卸载子系统。原创 2024-05-19 04:57:17 · 512 阅读 · 0 评论 -
ollama api只能局域网访问,该怎么破?
ollama api只能局域网访问,该怎么破? ollama离线安装,在CPU运行它所支持的哪些量化的模型 总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录。第二处修改,修改ollama安装目录。第一处修改,注释下载链接。但是安装在服务器上的时候,只能本地服务器上访问接口,域名和ip是访问不到的。ollama离线安装,在CPU运行它所支持的那些量化的模型-CSDN博客。原创 2024-05-13 20:00:13 · 746 阅读 · 0 评论 -
ollama离线安装,在CPU运行它所支持的那些量化的模型
ollama离线安装,在CPU运行它所支持的哪些量化的模型 总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录。第二处修改,修改ollama安装目录。第一处修改,注释下载链接。原创 2024-05-12 21:34:21 · 830 阅读 · 0 评论 -
python代码无法点击进入,如何破???
【代码】python代码无法点击进入,如何破???原创 2024-05-09 21:07:08 · 311 阅读 · 0 评论 -
在Ubuntu 24.04 LTS (Noble Numbat)上安装nfs server以及nfs client
在Ubuntu 24.04 LTS (Noble Numbat)上安装nfs server以及nfs client 在Ubuntu 24.04 LTS (Noble Numbat)上,我使用的是最小化安装,当然server版本的Ubuntu在安装的时候可能会有网络不通的问题,解决办法见如下文章:ubuntu 24.04 server 仅NAT模式上网设置静态IP设置-CSDN博客在Ubuntu 24.04 上设置网络通常涉及使用命令行工具。如果文件不存在,可能是 50-cloud-init.yaml。原创 2024-05-06 19:08:41 · 899 阅读 · 0 评论