人工智能
愚昧之山绝望之谷开悟之坡
人工智能智慧城市元宇宙pf,无无明亦无无明尽
展开
-
pip install` 命令时,`-U` 或 `--upgrade` 是一个选项,它的作用
(Python 包管理器)去升级指定的包到最新版本。是一个选项,它的作用是指示。原创 2024-07-24 16:43:53 · 395 阅读 · 0 评论 -
通俗的理解BPE词向量策略
想象一下,如果你面前有一堆乐高积木,这些积木代表不同的字母或者字符。最开始,你只能用这些单个的积木(字符)来搭建单词。这样做的缺点是,很多单词都需要用很多小块积木来表示,而且这种方法不能很好地处理新单词。想象一下你是一个开糖果店的老板,你发现很多小朋友喜欢把不同种类的糖果组合起来买。BPE的过程就像是你制作这些“糖果套餐”的过程。下面我会尽量用通俗的语言来解释BPE是什么以及它是如何工作的。好的,让我们用一个更加具体的例子来解释BPE,并且尽量用生活中的事情来做比喻。原创 2024-07-24 16:13:31 · 360 阅读 · 0 评论 -
读英文论文AIGC工具
万知:https://www.wanzhi.com/chat/6d15c813-c17d-4cb8-a933-b2ec9938d9d3原创 2024-06-18 15:53:41 · 338 阅读 · 0 评论 -
text2sql框架-vanna-1
1 前端代码都是python,浏览器只是一个执行前端脚本的环境,以及访问python代码接口的客户端2 前端html可以调用css和js,js可以调用python代码的接口,这样前端和后端就可以通过接口来进行交互。原创 2024-06-05 09:21:46 · 498 阅读 · 0 评论 -
直接下拉的镜像,怎么确定镜像里面dockerfile的执行指令
命令会输出一个 JSON 格式的数据结构,其中包含了镜像的配置和历史信息。在这个输出中,您可以搜索。或其他文本处理工具来过滤和查找特定的部分。例如,您可以使用以下命令来只显示。命令的输出可能会非常长,因此您可能需要使用。替换为您想要检查的镜像的名称或 ID。例如,如果您想要查看一个名为。字段表明该镜像的默认命令是。字段,这些字段分别代表了。原创 2024-04-30 15:25:50 · 203 阅读 · 0 评论 -
直接下拉的镜像,怎么确定镜像里面dockerfile的执行指令
命令会输出一个 JSON 格式的数据结构,其中包含了镜像的配置和历史信息。在这个输出中,您可以搜索。或其他文本处理工具来过滤和查找特定的部分。例如,您可以使用以下命令来只显示。命令的输出可能会非常长,因此您可能需要使用。替换为您想要检查的镜像的名称或 ID。例如,如果您想要查看一个名为。字段表明该镜像的默认命令是。字段,这些字段分别代表了。原创 2024-04-28 16:20:34 · 389 阅读 · 0 评论 -
streamlit增加用户密码登录功能页面
【代码】streamlit增加用户密码登录功能页面。原创 2024-04-23 14:39:28 · 1563 阅读 · 0 评论 -
GPU导入模型非常缓慢的解决办法
参考:https://blog.csdn.net/mark_2018/article/details/107187443原创 2024-04-22 15:01:38 · 363 阅读 · 0 评论 -
milvus服务安装bash脚本指令理解
总结来说,wait_for_milvus_running函数通过不断检查Docker容器的状态,等待名为milvus-standalone的容器启动并达到健康状态。这段代码定义了一个名为wait_for_milvus_running的函数,它的目的是等待一个名为milvus-standalone的Docker容器启动并达到健康状态。grep milvus-standalone:从上一个命令的输出中筛选出包含milvus-standalone的行,这通常是容器的名称。的容器启动并达到健康状态。原创 2024-04-17 15:59:01 · 1067 阅读 · 0 评论 -
pip 安装报错,ERROR: Could not find a version that satisfies the requirement
【代码】pip 安装报错,ERROR: Could not find a version that satisfies the requirement。原创 2024-03-06 09:27:48 · 1085 阅读 · 0 评论 -
modelscope下载特定模型
【代码】modelscope下载特定模型。原创 2024-02-21 09:11:32 · 1594 阅读 · 0 评论 -
计算机的构成CPU/GPU内存显存
参考:聊透 GPU 通信技术——GPU Direct、NVLink、RDMA。原创 2024-02-01 16:33:23 · 580 阅读 · 0 评论 -
大模型、AI-Agent、langchain之间的关系
和传统的 RPA 相比,RPA 只能在给定的情况条件下,根据程序内预设好的流程来进行工作的处 理,而 AI Agent 则可以通过和环境进行交互,感知信息并做出对应的思考和行动。因此,大模型是构建AI-Agent时的一个高级功能单元,而非直接包含于AI-Agent内,而是被集成在AI-Agent架构的不同层次上以提供NLP相关能力。图6:基于 LLM 的代理应用场景。总的来说,这个系统描述的是一个简化的模型,展示了是一个 AI Agent 如何从感知信息开始,经过一系列内部处理和决策,最终做出响应的过程。原创 2024-01-22 15:24:17 · 4175 阅读 · 0 评论 -
图形卡和计算卡都是显卡
图形卡和计算卡都是显卡,只不过我们一般定义图形卡主要用于进行图形设计,3D渲染,视频制作,比如现在市面上的NVIDIA Quadro系列专业卡,计算卡则主要用于大型的计算工作,比如高性能计算、深度学习方面的应用,日常使用的AI智能,地球天气模拟,都需要大量的图形计算运输工作,NVIDIA Tesla系列就可归类为计算卡~原创 2023-12-28 15:21:00 · 598 阅读 · 0 评论 -
【docker】怎么查看docker镜像的dockerfile、docker history 显示不全
【代码】【docker】怎么查看docker镜像的dockerfile、docker history 显示不全。原创 2023-12-07 14:25:04 · 748 阅读 · 0 评论 -
docker怎么修改默认数据存储路径
【代码】docker怎么修改默认数据存储路径。原创 2023-12-07 13:42:31 · 485 阅读 · 0 评论 -
huggingface_hub.utils._validators.HFValidationError: Repo id must be in the form ‘repo_name‘ or ‘nam
这个报错实际上是本地找不到模型导致的,可以检查一下看看。比如这个这个,就用了相对地址应该用绝对地址。2,HuggingFace模型路径不对。复现chatGLM的时候报了这个错。1,已下载的模型路径不对。原创 2023-11-30 19:02:24 · 2612 阅读 · 0 评论 -
容器有挂载目录的时候,容器反向生成为镜像,挂载的内容不会保留。只有实打实拷贝进容器的反向生成镜像才会保留。
然后容器A保存为镜像: docker commt 新像名:标签号 使用新镜像创建容器B并与备份目录进行映射: docker run -id -name=容B-p 8081:8080 -V /usr/local/baseproject:/usr/local/tomcat/webapps --privileged=true 新镜像名: 标签号。1、也就是说宿主机未与容器进行路径映射,故我们可以直接使用指令: docker commit 容器名称/容器ID 像名:标签号,把容器保存为镜像;原创 2023-11-30 19:00:32 · 743 阅读 · 0 评论 -
Resource punkt not found. Please use the NLTK Downloader to obtain安装nltk包(报错缺失punkt error 11004)报错
安装nltk包(报错缺失punkt error 11004):https://blog.csdn.net/m0_74879392/article/details/128835232官方目录网站:https://hub.yzuu.cf/nltk/nltk_data原创 2023-11-28 15:27:55 · 480 阅读 · 0 评论 -
nvidia tf32格式的意义是啥?和fp32的区别
NVIDIA Ampere架构引入了TF32的新支持,使AI训练能够在默认情况下使用张量核心,非张量运算继续使用FP32数据路径,而TF32张量核心读取FP32数据并使用与FP32相同的范围,内部精度降低,然后生成标准IEEE FP32输出。相对来说,在深度学习计算里,范围比精度要重要得多,于是有了BF16,牺牲了精度,保持和 FP32 差不多的范围,而TF32的设计,在于即汲取了BF16的好处,又保持了一定程度对主流 FP32 的兼容,FP32只要截断就是TF32 了。原创 2023-11-21 10:55:38 · 2450 阅读 · 0 评论 -
什么是MPS
https://cloud.tencent.com/developer/article/1531537原创 2023-11-16 11:34:44 · 67 阅读 · 0 评论 -
ai-agent1-概念
怕是大模型概念玩不下去了吧,这种统计概率生成模型,要达到拟合效果具备广度和深度,数据集数量是绝对要够的,突破拐点有很明显效果,但是实在数据集和参数规模在增加,边际效用会很明显,100条数据已经能完成拟合提取特征函数了,200条也可以增加泛用性,但是300条之后效果基本上没有任何变化。这个代理本质就是核心侧重玩计算机软件工程化方面拓宽,以llm为主题外挂其他领域特用模型,以及第三方工具库,横向扩展[大笑]。上面举例还少一个微软视觉gpt,也是同样思维。概念炒作不上去是吧。怕热度下降不利于自己圈钱是吗。原创 2023-11-15 14:52:37 · 99 阅读 · 0 评论 -
大模型-报错RuntimeError: Expected all tensors to be on the same device, but found at least two devices, c
在容器层面限制调用的GPU显卡,防止代码自动调用多张显卡,导致报错。原创 2023-10-23 16:50:22 · 367 阅读 · 1 评论 -
大模型训练-报错ImportError: This modeling file requires the following packages that were not found in your
模型路径出错了,把路径弄对。原创 2023-10-23 11:28:01 · 3466 阅读 · 0 评论 -
投资研报的优质网站
投资研报:https://www.zhihu.com/question/357713923/answer/2304672553原创 2023-10-22 15:06:58 · 116 阅读 · 0 评论 -
大模型训练-报错BUG] ‘BaichuanTokenizer‘ object has no attribute ‘sp_model‘
【代码】大模型训练-报错BUG] 'BaichuanTokenizer' object has no attribute 'sp_model'原创 2023-10-18 15:10:36 · 2759 阅读 · 0 评论 -
大模型训练-如何通过modelscope或者hg镜像快速下载LLM大模型文件,配置下载环境路径
大模型镜像地址:https://aifasthub.com/models/baichuan-inc/Baichuan2-7B-Chatmodelscope:https://www.modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E4%B8%8B%E8%BD%BD原创 2023-10-17 16:53:45 · 2243 阅读 · 0 评论 -
工装显卡和盒装显卡的区别
怎么说呢,一般比较耐造的东西工包无所谓,工包嘛,就是工业包装,一根数据线用个盒装还是塑料袋装,你都不会很在意,但是显卡就不一样了,毕竟还是比较精密的电子产品,其实真是工包也真的还好,就怕是一些返厂维修的坏显卡,小作坊自己捣鼓捣鼓当工包卖,那个真是容易出问题,理性看待吧,一般价格上相差20%以内的,你可以考虑考虑,超过这个差价,你就要注意了,毕竟是咸鱼。盒装显卡我姑且理解为正规渠道买到的显卡,不考虑性价比以及其他东西的情况下,至少你买来的卡肯定是一手货,即使有问题,也有最少一年的官方质保期。原创 2023-08-28 15:20:34 · 1255 阅读 · 0 评论 -
LLM-3-ChatGLM2
训练的输入长度=source的长度+target的长度–pre_seq_len:pre_seq_len的取值范围一般是1到512,它表示自然语言指令的长度,即输入序列中的前pre_seq_len个token,具体的值需要根据自然语言指令的长度和复杂度来确定。一般来说,指令越长越复杂,pre_seq_len就需要越大,以便模型能够充分理解指令的含义。但是,pre_seq_len也不能太大,否则会占用过多的输入序列长度,导致生成内容过于单一或重复。原创 2023-08-27 12:40:50 · 409 阅读 · 0 评论 -
什么是语义拒识
参考:https://zhuanlan.zhihu.com/p/596560777原创 2023-08-24 14:49:35 · 304 阅读 · 0 评论 -
LLM-4-Langchain-Chatchat
模型openai api接口服务:两种模型一致是纯open ai的接口方式,一种是open ai的接口和langchain融合的方式,对外都是以openai的接口规范。服务依赖一次是:webui接口服务》api接口服务》模型openai api接口服务》模型控制器接口服务》模型接口服务。api接口服务:本项目的api,融合向量模型,向量库,数据处理和langchain的接口。模型控制器接口服务:控制模型接口的分发。模型接口服务:语言模型的直接输入和输出。webui接口服务:和用户交互。原创 2023-08-23 10:02:32 · 363 阅读 · 0 评论 -
fastapi系列1-基础知识
路由分组在 FastAPI 中,您可以将相关的路由组织到一个分组中,来管理和维护代码结构。您可以使用 FastAPI 提供的 APIRouter 类来创建路由分组。在这个示例中,我们使用 APIRouter 创建一个名为 router 的路由分组。然后,我们定义了两个路由,/items/ 和 /items/{item_id},并指定了不同的 HTTP 请求方法和相应的函数实现。最后使用 app.include_router 将 router 路由分组上的路由挂载在 /api/v1 路由下。原创 2023-08-18 11:03:52 · 205 阅读 · 0 评论 -
RWKV系列2-RWKV-LM
小说和对话:temp 1.2 topp 0.5 或 temp 1.4 topp 0.4 或 temp 1.7 topp 0.3 或 temp 2 topp 0.2。完成机械任务,例如材料问答、摘要等等:temp 1 topp 0.2 或 temp 1 topp 0.1 或 temp 1 topp 0。对于特别长的多段落的问题,问题内部可以有换行,但是不能出现 \n\n。去处理 xxx,保证 xxx 里面没有 \n\n,也没有 \r\n。换行必须用 \n,不能用 \r\n。在问题后面有个纯空行。原创 2023-08-18 11:03:27 · 240 阅读 · 0 评论 -
LLM-2-ChatGLM2
训练的输入长度=source的长度+target的长度–pre_seq_len:pre_seq_len的取值范围一般是1到512,它表示自然语言指令的长度,即输入序列中的前pre_seq_len个token,具体的值需要根据自然语言指令的长度和复杂度来确定。一般来说,指令越长越复杂,pre_seq_len就需要越大,以便模型能够充分理解指令的含义。但是,pre_seq_len也不能太大,否则会占用过多的输入序列长度,导致生成内容过于单一或重复。原创 2023-08-15 09:41:11 · 1347 阅读 · 1 评论 -
什么是视频的编码和解码
编码过程会将原始数据转换成压缩编码,使其占用的空间更小,同时仍然能够在解码后恢复为原始数据,以便进一步的处理或回放是的,如果将未压缩的视频抽帧并将其转换为单独的图像,这个过程通常被称为解码。这段描述中,视频解码能力和视频编码能力指的是不同的处理过程。视频解码是将压缩过的视频数据解开并还原为可播放的视频流,而视频编码是将原始视频数据压缩成更小的尺寸,以减少存储空间和传输带宽。总之,视频解码能力用于解开已经压缩的视频流,使其可播放和分析,而视频编码能力则用于将视频压缩,以减少占用的存储空间和传输所需的带宽。原创 2023-08-14 13:42:34 · 3449 阅读 · 0 评论 -
算一笔细账,ChatGPT、文心一言这类大模型到底要消耗多少GPU?
算一笔细账,ChatGPT、文心一言这类大模型到底要消耗多少GPU?原创 2023-08-09 21:27:40 · 460 阅读 · 0 评论 -
解决https://arxiv.org/国内无法访问的问题
例如要查看1903.02026这篇文章详细信息,访问http://xxx.itp.ac.cn/abs/1903.02026。参考:https://blog.csdn.net/seasermy/article/details/95176357。有人说使用cn.arxiv.org,可能以前可以,不过现在也无法访问了。此时采用备份网址xxx.itp.ac.cn。要下载这篇文章,访问。原创 2023-08-02 08:24:54 · 1109 阅读 · 0 评论 -
文本生成模型评估方法
困惑度是一种常用于评估语言模型性能的指标,用于衡量模型在新数据上的预测能力。生成文本:今天 是、是 一个、一个 阳光明媚、阳光明媚 的、的 日子、日子 我、我 和、和 朋友们、朋友们 开心、开心 地、地 玩耍着。参考摘要:晴朗 的、的 天气里、天气里 我们、我们 在、在 户外、户外 尽情、尽情 游玩。生成文本:今天、是、一个、阳光明媚、的、日子、我、和、朋友们、开心、地、玩耍着。参考摘要:晴朗、的、天气里、我们、在、户外、尽情、游玩。今天是一个阳光明媚的日子,我和朋友们开心地玩耍着。原创 2023-07-31 08:50:47 · 889 阅读 · 0 评论 -
目标检测,数据标注,制作数据集时画框的原则
目标检测,数据标注,制作数据集时画框的原则原创 2023-07-26 11:17:30 · 234 阅读 · 0 评论 -
模型参数规模和模型参数大小的关系
有一个模型参数量是1M(数量的1M是一百万),在一般的深度学习框架中(比如说PyTorch),一般是32位存储。现在的quantization技术就是减少参数量所占的位数:比如用8位存储,那么:所需要的存储空间的大小即为:1M * 8 bit = 8Mb = 1MB。已知:Bert的Base model参数大小是110M(110million的参数),Bert的Base model的模型大小是400M。但是实际用模型的时候,都是下载,几百兆或者一两G的模型。即1M(一百万)的参数,需要的存储空间是4M。原创 2023-06-28 11:19:49 · 1479 阅读 · 0 评论