Q794469
码龄6年
关注
提问 私信
  • 博客:28,003
    28,003
    总访问量
  • 26
    原创
  • 61,493
    排名
  • 73
    粉丝
  • 0
    铁粉
  • 学习成就
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2019-04-13
博客简介:

Q794469的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    3
    当前总分
    342
    当月
    8
个人成就
  • 获得124次点赞
  • 内容获得19次评论
  • 获得71次收藏
  • 代码片获得1,371次分享
创作历程
  • 24篇
    2024年
  • 2篇
    2023年
成就勋章
TA的专栏
  • Cpu/Gpu部署/分布式部署大模型
    1篇
  • 力扣刷题
    1篇
兴趣领域 设置
  • 编程语言
    python
  • 开发工具
    visual studio code
  • 数据结构与算法
    算法
  • 大数据
    rediselasticsearchneo4j
  • 前端
    json正则表达式
  • 后端
    flaskrestful
  • 云原生
    dockerkubeless
  • 人工智能
    数据挖掘机器学习人工智能深度学习神经网络自然语言处理sklearncnnword2vectensorflowrnnlstmpytorch机器翻译grutransformerbertnlp数据分析scikit-learn
  • 服务器
    linuxubuntu
  • 开源
    github
  • AIGC
    llamagpu算力langchainpromptembedding
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

186人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

如何快速、稳定从Hugging Face下载模型、数据集!

【代码】如何快速、稳定从Hugging Face下载模型、数据集!
原创
发布博客 2024.10.08 ·
271 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

使用t-SNE降维时的一个小问题!

在使用TSNE时 偶然间发现 我测试用例为6条 也就是 n_samples=6。我将perplexity对比 总样本数 与 40 取小。perplexity 我默认设置为时40。
原创
发布博客 2024.09.06 ·
440 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

vllm+llama3.1部署!

CUDA_VISIBLE_DEVICES=0,1 python -m vllm.entrypoints.openai.api_server --model /你自己的路径/modles/llama3.1_8b_instruct --served-model-name llama3.1_8b_instruct --max-model-len=2048 --dtype=half --tensor-parallel-size=2。
原创
发布博客 2024.07.26 ·
1331 阅读 ·
4 点赞 ·
6 评论 ·
1 收藏

安装多个conda版本后切换系统默认使用版本!

(之所以装了两个是因为,最初装的版本默认把依赖和虚拟环境都安装到了共享空间,所以导致我的内存空间不够用)使用which conda 查看当前系统默认指定conda版本路径。export PATH=新安装版本路径/bin:$PATH。可以看到 当前我又两个版本的 conda。再次which conda 查看。
原创
发布博客 2024.07.19 ·
164 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

vllm+qwen2部署!

检查ninjaecho $?
原创
发布博客 2024.07.11 ·
2372 阅读 ·
5 点赞 ·
3 评论 ·
18 收藏

Error: [0] server cpu not listed in available servers map[]

不用删除 OLLAMA_RUNNERS_DIR 这个变量。
原创
发布博客 2024.07.08 ·
569 阅读 ·
4 点赞 ·
0 评论 ·
1 收藏

正则表达式匹配常用邮箱

只允许英文字母、数字、下划线、英文句号、以及中划线组成。名称允许汉字、字母、数字,域名只允许英文域名。
原创
发布博客 2024.06.18 ·
570 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

正则表达式匹配银行卡号

表示匹配字符串的结束。这确保了整个字符串只包含我们定义的模式,没有额外的内容。{2,4}:这部分是表示([- ]?\d{3,6})匹配2-4次。表示连续的4到6个数字。\d{3,6}同理。是数字(等同于[0-9])的缩写,:这部分是一个可选的连字符或空格。:表示匹配输入字符串的开始位置。:这部分匹配4到6位的数字。
原创
发布博客 2024.06.07 ·
1590 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

正则表达式匹配电话号码

【代码】正则表达式匹配电话号码。
原创
发布博客 2024.06.07 ·
564 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

ImportError: cannot import name ‘COMMON_SAFE_ASCII_CHARACTERS‘ from ‘charset_normalizer.constant‘

pip install charset
原创
发布博客 2024.05.28 ·
132 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

conda创建虚拟环境报错!

【代码】conda创建虚拟环境报错!
原创
发布博客 2024.05.24 ·
310 阅读 ·
3 点赞 ·
1 评论 ·
1 收藏

Centos上用Xinference部署大模型!

【代码】用Xinference本地部署大模型!
原创
发布博客 2024.05.23 ·
808 阅读 ·
2 点赞 ·
0 评论 ·
1 收藏

pip安装包的时候,内存不够怎么解决!

export TMPDIR=/home/xxx/xxx(路径自己定义)
原创
发布博客 2024.05.20 ·
328 阅读 ·
3 点赞 ·
1 评论 ·
1 收藏

如何彻底卸载Linux系统中的GCC及G编译器? (linux卸载gcc g)!

作为Linux系统中的常见工具之一,GCC及G编译器常常被用来编译、构建和安装应用程序源码,但有时候你可能需要卸载它们,可能是由于一些特殊的需求或者简单地想释放磁盘空间。但是,卸载GCC和G编译器不像在其他平台上那么容易和直接,因此本文将简要介绍在Linux系统中彻底卸载GCC和G编译器的步骤。1. 确认GCC及G编译器版本在开始卸载之前,首先需要确认你的Linux系统中已安装的GCC及G编译器版本。可以利用以下命令查看当前GCC版本:“`gcc -v“`对于G编译器,命令是:“`
原创
发布博客 2024.05.20 ·
4749 阅读 ·
35 点赞 ·
0 评论 ·
21 收藏

用llama-cpp库本地部署llama3-8b模型!

根据自己需求选择模型版本下载。
原创
发布博客 2024.05.16 ·
601 阅读 ·
7 点赞 ·
0 评论 ·
5 收藏

pip install llama-cpp-python时报错解决!

安装VisualStudio 2022 + C++
原创
发布博客 2024.05.16 ·
1240 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

推荐一个好用的代理网站以及查询ip网站!

快代理 - 企业级HTTP代理IP云服务_专注IP代理10年互连协议查询 - IP查询 - 查IP(www.cip.cc)
原创
发布博客 2024.05.15 ·
184 阅读 ·
5 点赞 ·
1 评论 ·
0 收藏

pycharm提高编码效率一个小技巧!

Settings 搜索 save 找到 Tools 下的 Actions on Save 将 Reformat code 打勾。作用:当我们每次保存代码的时候,自动格式化代码。
原创
发布博客 2024.05.15 ·
129 阅读 ·
3 点赞 ·
1 评论 ·
0 收藏

ollama拉取模型报错解决方案!

开始以为清理一下缓存就可以了,后来发现不行。今天在用ollama拉取新的模型时 出错了。然后重启了一下ollama服务就解决了。重启服务后重新拉取模型可以正常拉取了。
原创
发布博客 2024.05.15 ·
5786 阅读 ·
5 点赞 ·
2 评论 ·
1 收藏

ollama离线与在线安装

复制/usr/share/ollama/.ollama/models目录中(blobs manifests)的文件夹到OLLAMA_MODELS环境变量目录。在线安装在线安装地址https://ollama.com/download选择服务器系统,按照步骤完成安装。默认为/usr/share/ollama/.ollama/models,改为自定义路径,⑤运行 install.sh脚本 ,安装。## 在install.sh的第65行。## 在install.sh的第73行。⑥配置大模型下载目录。
原创
发布博客 2024.05.15 ·
1443 阅读 ·
7 点赞 ·
1 评论 ·
12 收藏
加载更多