自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 如何快速、稳定从Hugging Face下载模型、数据集!

【代码】如何快速、稳定从Hugging Face下载模型、数据集!

2024-10-08 10:31:21 270

原创 使用t-SNE降维时的一个小问题!

在使用TSNE时 偶然间发现 我测试用例为6条 也就是 n_samples=6。我将perplexity对比 总样本数 与 40 取小。perplexity 我默认设置为时40。

2024-09-06 11:29:08 438

原创 vllm+llama3.1部署!

CUDA_VISIBLE_DEVICES=0,1 python -m vllm.entrypoints.openai.api_server --model /你自己的路径/modles/llama3.1_8b_instruct --served-model-name llama3.1_8b_instruct --max-model-len=2048 --dtype=half --tensor-parallel-size=2。

2024-07-26 14:57:09 1331 6

原创 安装多个conda版本后切换系统默认使用版本!

(之所以装了两个是因为,最初装的版本默认把依赖和虚拟环境都安装到了共享空间,所以导致我的内存空间不够用)使用which conda 查看当前系统默认指定conda版本路径。export PATH=新安装版本路径/bin:$PATH。可以看到 当前我又两个版本的 conda。再次which conda 查看。

2024-07-19 17:20:23 163

原创 vllm+qwen2部署!

检查ninjaecho $?

2024-07-11 02:18:02 2371 3

原创 Error: [0] server cpu not listed in available servers map[]

不用删除 OLLAMA_RUNNERS_DIR 这个变量。

2024-07-08 15:56:28 568

原创 正则表达式匹配常用邮箱

只允许英文字母、数字、下划线、英文句号、以及中划线组成。名称允许汉字、字母、数字,域名只允许英文域名。

2024-06-18 19:54:54 569

原创 正则表达式匹配银行卡号

表示匹配字符串的结束。这确保了整个字符串只包含我们定义的模式,没有额外的内容。{2,4}:这部分是表示([- ]?\d{3,6})匹配2-4次。表示连续的4到6个数字。\d{3,6}同理。是数字(等同于[0-9])的缩写,:这部分是一个可选的连字符或空格。:表示匹配输入字符串的开始位置。:这部分匹配4到6位的数字。

2024-06-07 16:03:08 1589

原创 正则表达式匹配电话号码

【代码】正则表达式匹配电话号码。

2024-06-07 14:07:37 563

原创 ImportError: cannot import name ‘COMMON_SAFE_ASCII_CHARACTERS‘ from ‘charset_normalizer.constant‘

pip install charset

2024-05-28 15:48:49 132

原创 conda创建虚拟环境报错!

【代码】conda创建虚拟环境报错!

2024-05-24 10:19:04 309 1

原创 Centos上用Xinference部署大模型!

【代码】用Xinference本地部署大模型!

2024-05-23 10:37:13 807

原创 pip安装包的时候,内存不够怎么解决!

export TMPDIR=/home/xxx/xxx(路径自己定义)

2024-05-20 17:11:56 326 1

原创 如何彻底卸载Linux系统中的GCC及G编译器? (linux卸载gcc g)!

作为Linux系统中的常见工具之一,GCC及G编译器常常被用来编译、构建和安装应用程序源码,但有时候你可能需要卸载它们,可能是由于一些特殊的需求或者简单地想释放磁盘空间。但是,卸载GCC和G编译器不像在其他平台上那么容易和直接,因此本文将简要介绍在Linux系统中彻底卸载GCC和G编译器的步骤。1. 确认GCC及G编译器版本在开始卸载之前,首先需要确认你的Linux系统中已安装的GCC及G编译器版本。可以利用以下命令查看当前GCC版本:“`gcc -v“`对于G编译器,命令是:“`

2024-05-20 16:14:47 4746

原创 用llama-cpp库本地部署llama3-8b模型!

根据自己需求选择模型版本下载。

2024-05-16 14:45:51 600

原创 pip install llama-cpp-python时报错解决!

安装VisualStudio 2022 + C++

2024-05-16 13:41:33 1239

原创 推荐一个好用的代理网站以及查询ip网站!

快代理 - 企业级HTTP代理IP云服务_专注IP代理10年互连协议查询 - IP查询 - 查IP(www.cip.cc)

2024-05-15 20:08:57 183 1

原创 pycharm提高编码效率一个小技巧!

Settings 搜索 save 找到 Tools 下的 Actions on Save 将 Reformat code 打勾。作用:当我们每次保存代码的时候,自动格式化代码。

2024-05-15 19:47:01 128 1

原创 ollama拉取模型报错解决方案!

开始以为清理一下缓存就可以了,后来发现不行。今天在用ollama拉取新的模型时 出错了。然后重启了一下ollama服务就解决了。重启服务后重新拉取模型可以正常拉取了。

2024-05-15 14:16:00 5784 2

原创 ollama离线与在线安装

复制/usr/share/ollama/.ollama/models目录中(blobs manifests)的文件夹到OLLAMA_MODELS环境变量目录。在线安装在线安装地址https://ollama.com/download选择服务器系统,按照步骤完成安装。默认为/usr/share/ollama/.ollama/models,改为自定义路径,⑤运行 install.sh脚本 ,安装。## 在install.sh的第65行。## 在install.sh的第73行。⑥配置大模型下载目录。

2024-05-15 10:09:57 1443 1

原创 ollama内部局域网访问

然后重启守护进程和服务,这时候,配置参数才能被重新加载。用fastapi部署的接口是可以访问的。编辑ollama.service文件。但是启动ollama却访问不了。加入environment。

2024-05-13 11:14:12 2250 1

原创 Linux安装miniconda3步骤

上传对应安装包赋予权限执行。

2024-05-11 16:51:03 380 1

原创 vllm在Linux安装遇到的问题

pip install vllm 安装。将vllm版本降至0.2.0即可。后来发现是 cuda版本太低。但发现 安装到一半走不动了。

2024-05-10 23:06:35 1446

原创 pip install notebook时会中断

pip install notebook时候。下载速度嗖嗖的 没有再中断 直到安装完成。全局设置本来设置的 清华源。

2024-05-08 20:39:21 176

原创 1.两数之和

【代码】1.两数之和。

2023-04-10 23:50:14 46

原创 Linux

快照可以保存虚拟机的状态, 当虚拟机出现问题的时候, 可以通过预先制作的快照恢复到制作时候的状态, 用作备份用。通过虚拟化技术,在电脑内,虚拟出计算机硬件,并给虚拟的硬件安装操作系统,即可得到一台虚拟的电脑,称之为虚拟机。我们不能给自己电脑重装系统为Linux,所以通过虚拟机的形式,得到可以用的Linux系统环境,供后续学习使用。可以指定要查看的文件夹(目录)的内容,如果不给定参数,就查看当前工作目录的内容。参数,文件路径,必填,表示要过滤内容的文件路径,可作为管道符的输入。

2023-04-10 22:21:21 43 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除