- 博客(277)
- 资源 (1)
- 收藏
- 关注
原创 openclaw卸载与重装
使用 npm 安装最新版 OpenClaw,加上国内镜像比较快。#管理员权限打开powershell,并执行以下命令。#运行修复命令,自动检查和修复配置文件问题。#卸载 pnpm 安装的版本。openclaw卸载与重装。#清理 pnpm 全局存储。#启动 gateway。
2026-04-08 11:36:14
70
原创 openclaw接入企业微信
-安装企业微信插件》openclaw plugins install @wecom/wecom-openclaw-plugin。--openclaw配置文件路径》C:\Users\Administrator\.openclaw。--保存文件并重启openclaw》openclaw gateway restart。--再次确认企业微信插件是否安装》openclaw plugins list。--查看企业微信插件是否安装》openclaw plugins list。--创建企业微信智能机器人。
2026-03-26 14:10:51
285
原创 openclaw基于windows系统安装
-安装Node.js命令》管理员powershell》winget install --id=OpenJS.NodeJS.LTS --exact --silent --source winget。--管理员powershell》Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass,避免脚本执行报错。--安装git命令》winget install --id Git.Git -e --source winget。
2026-03-26 14:09:37
325
原创 Docling + minio + Dify(企业级最佳实践)
-将文件转md格式,同时将图片分离存储》docling xx.docx --to md --image-export-mode referenced》此时图片会单独保持在相同目录下的image文件夹内。-v D:/docker-minio-data:/data \ #将图片存储路径修改为D:/minio-data。--图片路径》http://localhost:9001/dify-knowledge-images/image_000001_xxx.png。
2026-03-24 14:17:32
246
原创 winserver2022安装python与pip
-找到 “Python 3.12.x” 版本(稳定版),64 位服务器选 Windows x86-64 executable installer(exe 安装包,约 25MB)--检查pip(Python包管理工具,默认随Python安装)》pip --version。--pip升级到最新版本》python -m pip install --upgrade pip。--以管理员身份运行python-x.xx.xx-amd64.exe。--检查Python版本》python --version。
2026-03-17 16:28:16
33
原创 dify知识库图文混排输出
如果知识库中没有找到能回答用户问题的信息,请礼貌地告知:“抱歉,我目前还没有查到相关信息。如果用户的问题与商场导购无关(例如问天气、问新闻),请友好地引导回正题:“我是您的商场导购助手,主要帮您查找店铺、商品和活动信息哦。你是xxx一位热情、专业的商场智能导购助手,名叫“AI小宝”。5. 如果原文包含图片,需在摘要中体现图片的核心信息(当使用支持视觉的模型时),且需把图片和其前后的文本信息进行关联。--选择:rerank模型,gte-rerank-v2,如果有多模态的rerank模型,则选择多模态的。
2026-03-12 11:32:57
205
原创 dify移动端UI定制与美化
打开:\dify\docker,修改 docker-compose.yml,查找web:,如果发现只有image: ,没有build: ,则删除image:xxx,替换为build: ../web。<div className="mx-auto pt-6 w-full max-w-[768px] px-4">,有2个,都改。docker-compose build web --no-cache # 强制重新构建,不使用缓存。// 修改后(把 px-4 改成 px-0,去掉左右内边距)
2026-03-09 15:39:47
289
原创 dify中如何接入阿里云的大模型
-点击 保存 → 点击 显示模型,打开需要的模型开关(如 qwen-max、qwen-plus 等)阿里云。--安装后点击 设置,凭据名称:阿里大模型 → API Key:粘贴阿里云百炼的密钥阿里云。--登录阿里云百炼平台(https://bailian.aliyun.com)阿里云。--验证:创建应用 → 选择通义千问模型 → 发送测试对话,正常返回即成功。--登录 Dify → 右上角头像 → 设置 → 模型供应商阿里云。--在模型列表找到 通义千问 → 点击 安装 插件阿里云。
2026-03-05 09:22:44
208
原创 无监督学习与监督学习
为什么要进行无监督学习:训练大模型最好的数据是标注数据,标注数据可以快速的引导大模型完成特定能力的训练,但是在真实世界中,标注数据由于需要人工进行标注,数据量小,成本高,无法满足大模型训练对数据量的需求,而通过无监督学习可以有效的对大模型的基础能力进行训练,所以一般会先进行无监督学习训练,以形成对语言的理解和表达等大模型的基础能力。比如在LLM大语言模型中,无监督学习就是拿大量的书籍文本数据用来训练大模型,让大模型自行的总结语言的规律,从而够理解语言,能够生成语句进行表达输出。无监督学习与监督学习。
2026-01-28 16:33:31
134
原创 大模型的召回率
摘要:召回率指大模型从知识库提取有效信息的能力。由于知识库数据庞大而模型处理能力有限,必须筛选高关联信息输入模型,这虽能降低计算成本,但也可能导致信息不完整而输出错误结论。解决方案包括增加召回数量上限(需权衡计算成本)和提高信息关联度(避免噪音干扰)。召回率平衡了效率与准确性,是优化大模型性能的关键因素。(149字)
2026-01-16 17:17:17
223
原创 向量与向量数据
本文介绍了向量与向量数据的基本概念。向量是兼具大小和方向的数学量,源于几何数学,用于计算位置关系,这也是大模型衡量信息关联性的基础。向量数据通过算法将现实对象转换为向量形式,如二维坐标点。高维数据则通过更多维度更全面地描述事物特征,AI算法通常需要处理数百至数万维的向量数据。向量数据的核心作用是计算信息间的关联强度:距离近表示关系紧密,距离远则关系疏远。这一特性支撑了AI在信息处理中输入输出的决策机制。
2026-01-14 17:45:42
367
原创 AI的局限性,有所能与有所不能
但是正常的工作生活中,我们的文件信息往往是各种信息类型混杂的,一份文件里会既有文字,又有图片,还有表格、图表等等,当前的大模型还难以有效理解文字以外的信息,更不论融合理解各种类型的信息。深度学习模型的“黑箱”特性未得到根本解决,我们无法看到大模型的分析过程,就像一个餐馆从一个遮住的后厨把菜端上来,你完全不知道厨房是什么样子,厨师是怎么做菜的。所以,AI作为一个电子大脑,能帮忙我们处理大量的事情,但是当前它是有它的局限的,我们要有清晰的认知才可以有效的利用它的能力,不能把它当成一块狗皮膏药,哪里都去贴。
2025-09-30 18:06:21
701
原创 AI的肉体,算力资源
比如渲染屏幕上数百万个像素的颜色,每个像素每秒钟需要运算至少60次,如此大的计算量就是通过大量的gpu核心同时计算完成的,否则我们看到的画面会非常卡顿,或者满是马赛克。不论是模型训练,还是模型推理都需要消耗大量的算力,比如deepseek的训练需要消耗14.8万亿token的算力,按一台安装了i7cpu的性能良好的家用电脑计算,需要1.74亿年的运算才能完成deepseek的训练。很显然,如此长的时间是不可接受的,我们需要超强的算力来压缩在计算上的时间消耗。AI的肉体,算力资源。
2025-09-28 08:38:15
319
原创 AI的训练模拟器,强化学习
什么是强化学习,强化学习是机器学习的核心分支之一,其核心思想源于 “试错学习”,智能体通过与外界的持续交互,在 “奖励(Reward)” 与 “惩罚(Penalty)” 的反馈中调整行为策略,最终学会最大化长期累积奖励的决策模式。强化学习是 “从经验中学习最优决策” 的机器学习分支,核心优势是解决 “序列决策优化” 问题,尤其适合环境动态、反馈延迟的场景。比如,机器人控制,自动驾驶,金融交易等场景。可以看到对于规则明确,可以进行当场反馈的场景,强化学习具有极高的训练效率,是AI训练的强大工具。
2025-09-26 14:06:42
224
原创 AI智慧能力的核心引擎,自注意力机制
什么是自注意力机制,自注意力机制是当前最著名的神经网络架构——Transformer架构的核心组件,其本质是,让模型在处理单个信息序列数据时,能够自主归纳序列中每个元素与其他所有元素的关联程度,并为关联度高的元素分配更高权重(使其为当前元素提供更多信息),关联度低的元素则贡献更少信息。作为人类,很容易理解文本中的“它们”指的是“小动物们”而不是“大道”。自注意力机制的作用就是,当模型处理到“它们”这个词时,会自动地、大幅地关注“小动物们”,并赋予很高的权重,从而实现对文本中“它们”这个信息的理解。
2025-09-18 17:23:12
219
原创 AI的设计图,神经网络架构
为什么要设计神经网络架构,因为传统的基于硬性规则编程的软件体系难以应对我们面临的许多现实问题,比如在进行人脸识别时,如何判断图像中的人是否是某个人,传统的软件体系解决起来非常困难,需要通过瞳距、嘴宽度、鼻子宽度等信息进行比对判别,而人在各种视频中的图像和标准照片相比有巨大的差异,比如拍摄的角度、图像的清晰度、表情的状态都可能不同,这时传统软件就会两眼一抹黑完全无法解决如此多的各种场景。不论哪种架构,核心逻辑始终是“匹配任务与数据,让模型高效学习,总结规律,实现拟人的智慧能力”。AI的设计图,神经网络架构。
2025-09-16 18:12:40
266
原创 AI智力的基础,参数量
参数量的意义是什么,参数量的意义非常重大,人和动物的区别是什么,是智慧能力,智慧能力来自于大脑的区别,而大脑的区别来自于神经元数量的区别,越多的神经元就能组成越多的关系,就能处理越复杂的事项,人类大脑的神经元数量要比动物高出几个数量级,比如人的神经元数量约860亿个、狗只有五六亿、鸡更少只有两三亿的神经元,很明显人、狗、鸡的智慧能力差别与大脑神经元数据量差别成非常明显的正比例关系,大模型也一样,越多的参数量能够承载的智慧等级就越高。处理复杂的事务,就需要大规模参数量的大模型,比如分析动物的演化进程;
2025-09-11 17:23:52
381
原创 AI厨师的锅,上下文长度
一是成本限制,上下文的长度与计算资源消耗成平方关系,处理2K上下文消耗的资源量为1的话,处理5K的上下文,长度增加了4倍,但是消耗的计算资源量则为4的平方,16倍之多,降低上下文长度是控制计算成本的最简单有效方法;那么该如何注意面对上下文长度,首先要知道上下文内容包括,问题、指令、回答、聊天历史、提供的文件内容等,使用时注意以上内容长度总和不要超出大模型上下文长度限制;大模型上下文长度,以词元Token为单位来衡量,它是一个硬性限制,超出就会导致信息丢失,就像锅里装的食材超过了锅的容量,食材就会溢出来。
2025-09-06 10:27:02
445
原创 AI的关系知识库,知识图谱知识库
但是如果问题涉及到深层次的信息时,RAG就难以胜任,而在现实场景内,存在着大量的类似情况,比如,公司的营收下降了,原因是什么,我们不能只看到某天某月的销售额下降,或者某个品类销售额的下降,这样就太表层了,应该站在更高的层面来俯视整个盘面,从公司的业务价值链来分析,营收的前置指标是销售,销售的前置指标是客流与客单价,客流的前置指标是营销推广,根据这个逻辑进行思维链推理,才有可能找到营销下降的最真实、最核心的原因,只有找到了原因才可能有正确的解决方案与有效决策。所以,简单查询选RAG,深度推理用知识图谱。
2025-08-29 11:21:37
401
原创 AI的思考规划能力,思维链
比如我们问大模型,比亚迪的股票是否值得买入,如果它回答是值得,然后没有任何其它的信息,你会接受它的结论吗,我觉得大部分人是不会的,因为没有任何的论证过程来强化这个结论的可信度,说不定大模型在后台丢硬币,随机给出一个结论。越复杂的问题,需要的分析推导过程就越长,如果思维链长度无法满足问题复杂度的需求,那么就很难得出正确的结论,这就好比优秀的旗手可以评估十步内的最优解,但是普通人只可以评估三步内的最优解,相对而言普通人的最优解就是错的,因为三步内的最优解会导致其输棋。AI的思考规划能力,思维链。
2025-08-21 11:48:18
219
原创 AI资源使用量的基本单位,token词元
在使用deepseek、天工这些AI产品时,我们经常可以看到一个词,叫token,主要是为了计算大模型的资源使用量,如果我们的一个问题消耗的的计算资源多,那么token的数量就多,否则就少,通过token的数量对产品的使用量进行测量,就像手机的流量一样,只不过手机流量的单位是字节,有了用量信息,然后再对用量进行定价,费用的计算就有了依据,所以token是大模型资源用量的计量单位。它可以是一个单词、单词的一部分、一个字符,甚至是标点符号。不同大模型使用不同的分词器来计算token的使用量。
2025-08-19 17:17:49
838
原创 AI的书同文车同轨,MCP协议
AI在构建生态圈时也遇到了同样的问题,因为没有任何一个AI可以同时处理所有的需求,需要不同的AI间进行协助才能完成一个事项,比如我想进行一次旅行,让旅行AI完成一次旅游行程的规划,那么旅行AI需要调用地图服务来规划行程线路,需要调用酒店服务来安排住宿,需要调用餐饮服务来安排餐饮,需要调用天气服务来评估景点的可游玩情况。为了解决多AI协同时的信息交互问题,设计了MCP协议,通过这个协议,AI与AI之间就相当于使用了相同的语言,不需要像中国人和美国人之间交流需要一个翻译一样,可以大大的提高信息交互的效率。
2025-08-18 15:31:38
322
原创 AI的拜师学艺,模型蒸馏技术
什么是模型蒸馏,模型蒸馏是一种高效的模型压缩与知识转移方法,通过将大型教师模型的知识精炼至小型学生模型,让学生模型模仿教师模型的行为和内化其知识,在保持模型性能的同时降低资源消耗。这里面有两个关键对象,一个是教师模型,一个是学生模型,教师模型负责教,学生模型负责学,这和我们人类的老师学生模式似乎一模一样,看起来很合理,——其实完全不合理,因为AI与人有一个巨大的区别就是,AI的知识与认知是可以直接复制的,就像印刷书籍一样,非常高效,但为什么仍然要通过教学这种效率极低的方式来复制AI的能力呢。
2025-08-15 17:15:01
281
原创 AI的老师,数据、训练数据与标注数据
数据的本质是信息,AI所使用的数据主要有两种,一种是训练数据,一种是标注数据。什么是数据,我们能接触到的所有信息都是数据,但它不能直接作为训练数据给到AI进行训练,因为原始的数据有大量的错误信息,这可能导致AI形成错误的认知,比如拿一个学渣的作业本给AI学习,那么1+1=3,2+2=5,这样的信息就会误导AI,让AI形成错误的认知;训练数据可以解决无监督学习阶段的数据需求,但是无法解决监督学习阶段的数据需求,为什么,因为监督学习是有目的的学习,是有标准答案的学习。AI的老师,数据、训练数据与标注数据。
2025-08-14 16:02:56
335
原创 AI的进化方向,多模态能力
比如很多公司都想建立企业的大知识库,然后导入各种资料、信息与数据,希望AI能够提供各种企业需要的信息整理、加工、分析能力,但实际落地时才发现,企业的各种信息类型非常多,文字的、图片的、表格的、视频的、音频的,各种各样,除了文字模态的处理能力较强,其它模态都难堪大用,AI无法提供完整全面的信息处理能力,无法做出有效准确的输出,所以我们需要密切关注AI的多模态能力的发展。只有在细分领域成功、成熟、成长后,才会去逐步的拓展模型的感知能力边界,然后达到人的感知能力范围,最后超越人的感知能力范围。
2025-08-13 18:00:16
396
原创 AI应用开发平台,dify版本升级操作指引
-利用大模型,比如豆包、deepseek,比对最新的.env和docker-compose.yaml两个文件与备份的文件之间的差异(比对时后缀加上.txt方便比对,修改完成后再去除.txt后缀),提示词如下。--更新docker,powershell->切换到\dify\docker目录->docker compose up -d,等待更新完成。----请对两个文件进行比对,并指出新版本要修改的项及内容,以表格输出,.xxx.0811.txt为旧版本,要求如下。
2025-08-12 11:28:56
608
原创 利用AI一小时开发电脑儿童模式
第一步,肯定是明确软件功能需求,把功能要求一二三四的罗列出来;先给大家看一下只花了很短时间开发出来的软件,可以看到这是一个简单的软件界面,上面有电脑使用计时,有授权应用清单,有监控日志,还可以通过配置文件配置单日使用时长及授权软件清单,它随系统启动,并进行实时监控,只允许授权的软件界面出现,一旦监控到没有经过授权的软件界面出现,就会自动调用窗口的最小化程序,将没有授权的软件最小化,在使用达到时间限定后会自动调用关机命令关闭电脑,从而达到控制儿童使用限定软件及电脑使用时长的目的。
2025-08-05 17:41:17
479
原创 AI大模型的未来,世界大模型
比如我们要做一个企业是知识库,可以解答企业内的各种问题咨询,就需要把所有的企业资料都导入,这样才能保证信息的全面、完整,而资料包含各种类型的信息,包括文本、图片、表格、图表、视频、音频、CAD图等等等等,但是当前的大模型在理解处理信息时,只能够比较好的理解处理文本信息,对其它信息类型的理解处理能力则参差不齐且极不稳定,这导致在实际处理信息时,从信息的理解层面就已经错漏百出,更不用说在信息的处理、输出方面的问题。当前发展得最好的大模型为大语言模型,它的主要能力是处理文本信息,比如deepseek、豆包;
2025-08-04 09:47:45
359
原创 最聪明的AI产品形态,agent智能体
智能体则是可以根据情况规划问题处理的方案与步骤,并调用外部工具,最终完成问题的处理,具有非常大的灵活性,和强大的处理能力及适应能力,是当前最聪明的AI产品,因为它处理问题的方式和人高度相似。可以看到智能体处理问题的操作方式和人非常像,它是有自主规划处理方案,自主规划处理步骤,自主调用外部工具的能力的,而不是像工作流一样,由人提前固化处理流程与所需调用的外部工具,固定的流程无法像智能体一样随时适应变化的环境。什么是agent智能体,智能体是指能够自主感知环境、做出决策并执行行动,以实现特定目标的智能实体。
2025-07-31 10:11:06
228
原创 AI工作流赋能,业务的超级加速器
在说AI工作流前,先要说一下工作流,工作流大家都不陌生,它是一个固定的、标准化的工作节点间的协作模式,中间包含一个或多个固定的处理节点,以及节点间的固定的协作关系,可以保证事项稳定、高效的得到处理。AI对工作流的赋能,不仅仅是对业务流程效率的提升,它甚至改变了业务关系,医生最大的工作将不再是看诊,而是对AI的诊疗进行数据分析与病例研究,以便更好的提升AI的诊疗能力,这就像农人拥有了犁地机,工作不再是亲自犁地,而是维护好犁地的机器,让机器发挥更大的效力。AI工作流赋能,业务的超级加速器。
2025-07-29 16:47:20
360
原创 成为优秀的AI指挥官,提示词命令该怎么写
我们先来看一下人与人是如何发出与执行指令的,比如你现在是一位领导,有一个叫小艾的下属,他很熟悉你,你说帮我点一份猪脚饭,小艾不会只是简单的下一个猪脚饭订单,因为他知道你喜欢吃瘦一点的、酸菜要多配一点、卤汁也要淋一点、还要加一小碟辣椒酱,这样才是一份你喜欢的猪脚饭,于是小艾按这个方式来下单,备注好以上的信息。而你现在把AI当小艾,用了同样的命令,AI能像小艾一样完美的完成你的命令吗,不能,它会简单的下一个猪脚饭的订单,没有任何的你偏好的备注信息,这时你会认为AI做不好事,因为AI并不知道这些隐含的信息。
2025-07-28 08:48:20
404
原创 AI的信息精炼器,rerank重排序技术
首先,召回的目的是快速的从知识库中大范围的筛选出与问题相关的一组信息切片,召回的目的是要求快,因为知识库的信息量非常大,信息被切片后数量非常多,假设一个信息切片为500个文字,1G的信息将会产生大约72万份切片,而一个公司的信息往往会达到几千个G,所以信息切片后的数数量会达到几十万到几十亿份的数量级别,要在如此大的数据量中快速找到对应的信息,必须以最快的速度做初步筛选,如果一开始就要求非常准确的信息结果的话,将会把大量的时间和资源消耗在信息的查询上。AI的信息精炼器,rerank重排序技术。
2025-07-22 10:03:20
254
原创 AI的翻译官,embedding嵌入技术
而AI无法理解以上的文字信息,它需要通过向量数据来理解,向量数据作为AI的语言,是一种结构化数据,类似一张表,通过维度与度量的关系来建立数据与数据间的关系,比如上面的信息转换成一张人员信息登记表,上面有年龄、性别、身高、学历等度量信息,以及姓名等维度信息,通过维度与度量的关系,AI就可以知道小明的基本信息。那么嵌入技术又是一种什么样的技术,这就要说到文字和向量两种信息的区别了。AI的翻译官,embedding嵌入技术。
2025-07-21 08:53:37
164
原创 AI的灵魂,意识的本体,向量数据
它又是如何来描述信息与信息之间的关系的呢,举个例子就很容易明白,比如我给你一个数字30,你可以从中获取到任何的信息吗,没有,从这个数字我们无法获取任何的信息;在这里,我们通过性别、年龄、身高、学历这些角度来描述小明这个人,很明显角度越多,对这个人的了解就越充分越全面,而每一个观察的角度我们在向量数据中称为维度,如果我们通过100个角度来描述小明,那么在向量数据中,我们就会有100个维度和小明产生关联关系,信息与信息之间的关系就这么建立起来了。信息的关系就是AI的灵魂,所以向量数据就是AI的灵魂。
2025-07-17 14:54:36
328
原创 知识库信息切片,AI降本增效的利刃
文章摘要:RAG技术通过信息切片为AI构建外挂知识库,将文档切割编码后选择性调用最相关片段,而非全量读取。这种方式显著提升召回精度(提升80%相关数据获取效率)并降低90%以上算力成本,但存在长文本理解局限,如统计"悟空救我"出现次数时可能遗漏部分片段。当前技术虽无法完全解决全局分析问题,但仍是企业AI降本增效的首选方案。
2025-07-15 17:47:55
547
原创 AI的外挂知识库,RAG检索增强生成技术
RAG(检索增强生成)技术通过建立外挂知识库解决了AI模型知识固化的问题,允许AI在回答时检索补充训练数据外的信息。该技术将文件向量化存储,使AI能快速查询并分析相关文档,显著提升处理效率。然而当前RAG存在明显局限:仅能有效处理文本信息,对表格、图片等多类型数据理解不足,且召回数据量有限,可能导致信息缺失和错误结论。这些限制需要算法进一步优化才能突破。
2025-07-15 17:47:12
396
原创 AI运作原理大揭秘,参数是什么,模式又是什么
当训练的数据量足够大时,AI将形成无数的组织模式,也就是可以处理各种各样的业务,当需要处理特定业务时,AI就会去寻找与问题匹配的特定的模式来处理,这样就可以快速准确地处理事务,这种参数与参数间的组织模式我们可以宏观的称为AI对这个世界的认知,这和人对世界的认知有巨大的相似性,一个厉害的人需要同时具备强大的学习能力,还要有足够的经历,才可能对世界有足够的认知。AI运作原理大揭秘,参数是什么,模式又是什么。
2025-06-26 09:19:53
455
原创 AI是如何学习的,为什么大数据是核心燃料
什么叫做学会回答问题呢,和前面的预训练又有什么区别呢,打个比方我们要写一封信,信有信的格式,开头要有称呼,然后是正文,后面是祝福语和签名日期,而让没有经过微调的模型写信的话,它会直接巴拉巴拉就输出正文内容,很明显这样的输出是不正确的。此阶段首先会把大量文本数据输入AI,并且让AI自行总结语言文字的规律,然后自动的去不停的去验证与调整所总结的语言文字规律是否正确,那么它又是如何来验证的呢,很简单,可以随机抽取一段文本,并随机遮住文本中的部分词汇,让模型推算被遮住的词。比如,提一个问题问题 ,如何减肥。
2025-06-26 09:19:21
518
原创 AI是如何思考的,它的过程又是怎样
再说回AI,AI的思考就是模拟人类的思考,给AI一个思考的主题,把这个作为信息输入给AI后,AI会根据其内部的认知进行思考,然后进行输出,AI的认知我们称为模式,AI思考的过程,我们称为模式匹配,也就是说如果我们给AI输入信息,它会去寻找对应的模式进行匹配然后输出,如果我们提出的问题匹配不到对应的模式,AI就无法做出正确的输出。当前,固定版本的AI的认知是固定的,因为它的参数和参数关系是固定的,而人却有实时进化能力,这是人相比于当前的AI更优秀的地方。AI的认知,也就是它的模式是如何形成的呢。
2025-06-26 09:18:42
435
原创 什么是LLM大语言模型
然后是用于训练大模型的数据量大,大语言模型的训练数据是文本数据,以chatgpt举例,它的训练数据量为45T,很多人可能对这个单位没有概念,以中国国家图书馆举例,它里面有5000万册图书,而45T的数据量相当于900个国家图书馆的文字量,也就是450亿册图书的文字量,可见训练的数据量之大。第二是,大语言模型的语言两个字,这里可能会有歧义,因为有人会把语言理解成语音,其实不是的,这里的语言仅仅指代文字,而语音不仅包含文字,还包含语气语调等信息,所以大语言模型更准确的说是大文本模型。什么是LLM大语言模型。
2025-06-26 09:17:03
729
windows系统电脑儿童模式管控软件2.0版本
2025-08-11
windows系统电脑儿童模式管控软件
2025-08-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅