ModaHub魔搭社区
大禹智库——致力于AIGC,向量数据库和低代码研究与顾问咨询。代表作《实战AI大模型》,《向量数据库指南》,《低代码指南》
展开
-
《实战AI大模型》———如何用扣子(COZE)做一个AI Agent
扣子的记忆库功能可以保留和理解对话细节,并支持添加外部知识库给模型补充知识,使 Bot 与用户的互动更加有针对性和个性化。你可以通过拖拽不同的任务节点来设计复杂的多步骤任务,提升 Bot 处理复杂任务的效率。大模型使用的是GPT-3.5,GPT-4(是的,在这是可以免费用GPT-4的),但是需要一些科学上网的方法。除了上述简单易用的搭建能力,扣子平台还提供了以下高级功能,让你更加灵活的设计、使用搭建的 Bot。扣子支持将搭建的 Bot 发布到各种社交应用中,让你的 Bot 服务更多的用户。原创 2024-05-15 10:00:12 · 459 阅读 · 0 评论 -
ModaHub魔搭社区开源AI Agent开发框架和评测
AI Agent 类应用正在成为大模型创业的重要赛道,AI Agent 开发框架也应运而生。未来,ModaHub-Agent 会适配更多新增的开源 LLM,并将推出更多基于 ModaHub-Agent 开发的应用,如个人助理 Agent、Story Agent、Multi-Agent 等。此前,魔搭已用这套框架在社区做了 " 打样 ",搭建 ModeScopeGPT,它能通过自然语言与用户交互、接受用户指令,通过 " 中枢模型 " 通义千问调用社区的众多 AI 模型 API,自主完成人类布置的任务。原创 2023-09-06 08:50:23 · 330 阅读 · 0 评论 -
LLM 落地电商行业的最佳实践来了?Zilliz X AWS 有话说
李雪晴 亚马逊云人工智能产品架构师本次分享将着眼基于亚马逊云科技产品如何构建端到端的 GenAI 应用:GenAI 有哪些主流场景?无服务器和私有化部署如何选择?AI Agent 有哪些落地实践?如何在保证灵活扩展的前提下优化成本?沈亮 Zilliz 资深解决方案架构师本次分享将重点介绍向量数据库的基本概念和功能,以及如何评判向量数据库的性能,最后将介绍向量数据库在电商领域的典型应用场景。原创 2023-08-21 18:38:32 · 155 阅读 · 0 评论 -
LLM 回答更加准确的秘密:为检索增强生成(RAG)添加引用源
当前,LLM 的最大问题就是缺乏最新的知识和特定领域的知识。(https://zilliz.com/use-cases/llm-retrieval-augmented-generation) 引用源是一种通用的解决方案,可以为 LLM 应用的响应添加引用源,从而为响应提供更多上下文信息。不过,随着越来越多的文档、用例等信息被注入应用中,越来越多开发者意识到信息来源的重要性,它可以确保信息准确性,使得大模型的回答更加真实。在本示例中,我们从百科中获取了不同城市的数据,并进行查询,最终获得带引用的响应。原创 2023-08-20 16:11:58 · 377 阅读 · 0 评论 -
经营决策垂直大模型——WinPlan经营大脑9月正式上线
WinPlan并基于垂直大模型提供智能分析和预测能力,帮助解决企业管理层经营决策问题。原创 2023-08-23 09:00:00 · 83 阅读 · 0 评论 -
WinPlan经营大脑垂直大模型行业报告
WinPlan作为一款经营决策产品,通过提供通用数据底座和垂直大模型分析功能,能够有效解决企业管理层经营决策问题,提高决策效率和准确性原创 2023-08-18 18:13:44 · 141 阅读 · 0 评论 -
WinPlan经营大脑:专注企业经营分析预测的垂直大模型
基于WinPlan垂直大模型,构建企业自助经营决策系统,辅助企业管理层分析和预测。准确度可达98%原创 2023-08-22 21:00:00 · 95 阅读 · 0 评论 -
ModaHub魔搭社区:AI Agent在数字卡牌游戏场景下的AgentBench基准测试
最近的一些研究转而采用现实世界的游戏(例如,MineDojo,一个基于游戏Minecraft的开放式通用人工智能体学习平台)作为环境,但大多数需要超出现有LLM的多模式功能。原创 2023-08-24 08:00:00 · 143 阅读 · 0 评论 -
ModaHub魔搭社区:AI Agent在 知识图谱场景下的AgentBench基准测试
为了衡量LLM的决策能力,特别是其在长期规划方面的熟练程度,研究者精心编制了一个数据集,该数据集源自FREEBASE上现有的知识库问答(KBQA)数据集,藉此为LLM配置了一系列知识图谱查询工具。同时,为了保证任务的高难度,研究者仅保留那些至少需要调用5个工具的问题,最终积累了一个包含1663个问题的数据集,用以测试智能体。AgentBench包含8个不同的环境,其中5个是首次使用的环境:操作系统、数据库、知识图谱、数字卡牌游戏、横向思维谜题(即所谓的“海龟汤”游戏)。图注:AgentBench场景示例。原创 2023-08-23 08:00:00 · 159 阅读 · 0 评论 -
ModaHub魔搭社区:AI Agent在数据库场景下的AgentBench基准测试
在AgentBench中,研究者则是在真实的SQL接口和数据库上评估LLM,来模拟现实世界中的场景。原创 2023-08-22 09:00:00 · 107 阅读 · 0 评论 -
ModaHub魔搭社区:AI Agent在操作系统场景下的AgentBench基准测试
允许LLM访问和操作终端(terminal)来控制操作系统是一项颇具挑战性的任务。尽管已经有研究尝试将自然语言翻译为Shell命令,但少有研究对真实的可执行环境进行评估。原创 2023-08-21 21:00:00 · 127 阅读 · 0 评论 -
AgentBench——AI智能体基准测试官方
gpt-44.4136.8133.6752.1450.0017.6078.0058.6022.592.7713.1916.7536.2230.006.3952.0059.2620.972.5532.6415.0027.2030.0014.8514.0067.2115.692.1022.9216.3330.8215.005.2120.0061.4315.521.9014.588.0029.6735.006.0826.00。原创 2023-08-20 21:00:00 · 231 阅读 · 0 评论 -
AgentBench——AI智能体基准测试和排行榜
如果您有兴趣了解有关如何对语言模型基准测试的更多信息,那么一种新的基准测试工具Agent Bench已成为游戏规则的改变者。这个创新工具经过精心设计,将大型语言模型列为代理,对其性能进行全面评估。该工具的首次亮相已经在AI社区掀起了波澜,揭示了ChatGPT-4目前作为性能最佳的大型语言模型而位居榜首。不仅仅是一种工具,而是AI行业的一场革命。它是一个开源平台,可以在桌面上轻松下载和使用,使广泛的用户可以访问它。该工具的多功能性体现在它能够在八个不同的环境中评估语言模型。原创 2023-08-19 21:00:00 · 447 阅读 · 0 评论 -
ModaHub魔搭社区:AI时代连接硬件和上层应用的中间层基础设施。
然而,由于传统的机器学习模型没有泛化能力,大部分AI应用落地以定制化项目的形式,包括需求、数据、算法设计、训练评估、部署和运维等阶段,其中,数据和训练评估阶段往往需要多次循环,较难形成一套标准化的端到端的流程和解决方案,也由此造成了边际成本高、重复造轮子等问题。传统本地部署时代,三大基础软件(数据库、操作系统、中间件)实现控制硬件交互、存储管理数据、网络通信调度等共性功能,抽象并隔绝底层硬件系统的复杂性,让上层应用开发者能够专注于业务逻辑和应用功能本身的创新实现。资料来源:中金公司研究部。原创 2023-08-13 21:00:00 · 196 阅读 · 0 评论 -
AI Infra工具关键能力解析:数据准备、模型训练、模型部署与整合
AI Infra产业处于高速增长的发展早期,各细分赛道空间保持30%+的高速增长,数据准备、模型训练、模型部署与整合是AI Infra工具的关键能力。原创 2023-08-13 09:00:00 · 522 阅读 · 0 评论 -
ModaGPT(魔搭GPT)大模型助手开源——可一键调用ModaHub魔搭社区所有模型
通过ModaGPT的开源,ModaHub魔搭社区的大模型可以被更多的研究人员和开发者使用,从而促进这些大模型的发展和应用。通过ModaGPT的开源,更多的研究人员和开发者可以自由地获取和使用各种不同的代码和资源,从而更加方便地进行研究和开发。开源是一种非常开放和共享的方式,能够让更多的人参与到大模型的研究和应用中来。此外,开源还能够促进社区的发展和进步,使得各种不同的技术和资源能够得到更好的共享和应用。大模型是指参数量巨大的深度学习模型,具有非常复杂的结构和参数,能够在各种不同的任务中取得非常好的表现。原创 2023-08-06 11:08:12 · 157 阅读 · 0 评论 -
ModaHub魔搭社区:国产大模型名录和产品信息一览表114个
ModaHub魔搭社区:国产大模型名录和产品信息一览表114个原创 2023-07-31 17:00:00 · 205 阅读 · 0 评论 -
《向量数据库指南》——FAISS和Chroma:两种流行的向量数据库的比较
向量数据库是一种可以存储和检索高维向量数据的数据库,高维向量数据是一种可以表示任何类型数据的A.I原生方式,比如文本、图像、音频等。向量数据库可以用于实现各种基于相似度搜索和聚类的A.I应用,比如语义搜索、推荐系统、图像识别等。在本文中,我将介绍两种常用的向量数据库:FAISS和Chroma,并比较它们的特点和优缺点。原创 2023-07-28 17:00:00 · 1160 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone如何集成LangChain(二)
现在我们已经构建了索引,可以切换到 LangChain。我们首先使用刚刚构建的索引初始化一个向量存储。在GQA中,我们将查询作为要由LLM回答的问题,但LLM必须根据从“vectorstore”返回的信息来回答问题。我们应该看到新的Pinecone索引具有total_vector_count为0,因为我们尚未添加任何向量。现在我们回答被问到的问题,并返回 LLM 正在使用的信息源。要创建我们的向量数据库,我们首先需要从Pinecone获取。(与我们的两个文本块对齐)1536维度的嵌入。原创 2023-07-30 12:30:00 · 209 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone如何集成数据湖
为大型数据集创建向量嵌入可能具有挑战性,但Databricks是实现该任务的一个很好的工具。Databricks使设置GPU集群和处理所需的依赖项变得容易,从而允许高效地创建规模的嵌入。Databricks和Pinecone是处理非常大的向量数据集的完美组合。Pinecone提供了一种有效地存储和检索Databricks创建的向量的方法,使得处理大量向量变得容易和高效。总的来说,Databricks和Pinecone的组合提供了一个强大而有效的解决方案,可用于创建非常大的数据集的嵌入。原创 2023-07-28 21:00:00 · 262 阅读 · 0 评论 -
LangChain 联合创始人下场揭秘:如何用 LangChain 和向量数据库搞定语义搜索?
检索是指从内存或其他存储设备中获取信息的过程。那么,如何利用检索技术、向量数据库(如:Milvus)、AI 代理(如:LangChain)搭建一个接入外部知识库的 LLM 应用?Harrison 表示,尽管 LLM 功能强大,但在使用上还存在一些限制,比如 LLM 只能记住预先训练时的信息。这就意味着,LLM 并不能够做到实时更新数据信息。举个例子,ChatGPT 的数据仅涵盖 2021 年及以前的数据,因此 ChatGPT 无法回答 2021 年之后的信息。原创 2023-07-25 13:15:00 · 139 阅读 · 0 评论 -
《向量数据库指南》—— LangChain + GPTCache =兼具低成本与高性能的 LLM
上周我们邀请到了分享【如何用 LangChain 和 Milvus 进行检索】,Harrison 提到,多跳问题会给语义检索带来挑战,并提出可以试用 AI 代理工具解决。不过,频繁调用 LLM 会导致出现使用成本高昂的问题。对此,Zilliz 软件工程师 Filip Haltmayer 指出,将 GPTCache 与 LangChain 集成,可以有效解决这一问题。GPTCache 是一个用于存储 LLM 响应的语义缓存层。原创 2023-07-24 20:00:00 · 303 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone使用命名空间
Pinecone允许您将索引中的向量划分为。然后,查询和其他操作仅限于一个命名空间,因此不同的请求可以搜索索引的不同子集。例如,您可能想为按索引的文章定义一个命名空间,为按索引的文章定义另一个命名空间。。每个索引都由一个或多个命名空间组成。每个向量存在于恰好一个命名空间中。命名空间由一个命名空间名称唯一标识,几乎所有操作都接受它作为参数,以便将它们的工作限制在指定的命名空间中。当您没有为操作指定命名空间名称时,Pinecone会使用""(空字符串)作为默认命名空间名称。原创 2023-07-25 09:00:00 · 206 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone指定过滤器
您可以基于元数据限制您的向量搜索。Pinecone允许您将元数据键值对附加到索引中的向量,并在查询索引时指定过滤器表达式。使用元数据过滤的搜索仅检索与过滤器匹配的最近邻结果数量。对于大多数情况,搜索延迟甚至低于未过滤的搜索。。原创 2023-07-25 08:00:00 · 198 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone的query-data教程
在你的数据索引完成后,你可以开始发送查询到Pinecone。查询操作使用一个查询向量在索引中进行搜索。它检索与索引中最相似的向量的ID以及它们的相似度得分。可选地,它还可以包括结果向量的值和元数据。在发送查询时,您指定每次检索的向量数量。它们总是按相似度从最相似到最不相似的顺序排序。原创 2023-07-24 09:00:00 · 196 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone管理索引教程(二)
结果中的status字段包含键值对"state":"ScalingUp"或"state":"ScalingDown",以表示调整大小过程中的状态,以及键值对"state":"Ready"表示进程完成后的状态。当提供metadata_config对象时,Pinecone只索引该对象中存在的元数据字段,任何未包含在metadata_config对象中的元数据字段都不会被索引。,尤其是当您拥有许多唯一的元数据值时,因此可以在每个pod中容纳更多的向量。在创建索引之后,您可以增加索引的pod大小。原创 2023-07-21 20:00:00 · 128 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone管理索引教程(一)
在本节中,我们将说明如何获取索引列表、创建索引、删除索引和描述索引。要了解与索引相关的概念,请参见索引。原创 2023-07-18 13:57:58 · 445 阅读 · 1 评论 -
《向量数据库指南》:向量数据库Pinecone项目教程
本文档介绍与Pinecone项目相关的概念。原创 2023-07-24 08:00:00 · 237 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone组织教程
松果组织是一组使用相同计费方式的项目。组织允许一个或多个用户控制所有属于该组织的项目的计费和项目权限。每个项目都属于一个组织。有关将用户添加到组织的指南,请参见将用户添加到项目或组织中。原创 2023-07-23 08:00:00 · 113 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone稀疏-密集嵌入
Pinecone支持稀疏和密集值的向量,这使得您能够在一个查询中对数据执行语义和关键字搜索,并将结果组合以获得更相关的结果。本主题描述了Pinecone中稀疏-密集(sparse-dense)向量的工作原理。要了解稀疏-密集(sparse-dense)嵌入的实际应用,请参见。原创 2023-07-22 08:00:00 · 224 阅读 · 0 评论 -
《向量数据库指南》:向量数据库Pinecone集合
本文档说明了Pinecone中与集合相关的概念。原创 2023-07-21 08:00:00 · 217 阅读 · 0 评论 -
大模型调用工具魔搭GPT——一键调用魔搭社区上百个AI模型的API
阿里云表示,将对外开放构建ModelScopeGPT 的数据集和训练方案,开发者可以根据需要对不同的大模型和小模型进行组合,构建自己的模型调用方案。它能够通过担任“中枢模型”的大语言模型一键调用魔搭社区其他的AI模型,实现大模型和小模型协同完成复杂任务。魔搭社区作为“模型自由市场”,展现了大模型生态的未来图景:通过降低大模型的研发和使用的门槛,让AI模型和开发者作为生产要素,既有集聚、更有流动,在自由市场上寻找最优配置,借助群体智慧探索大模型的商业化路径,让AI普惠成为可能。原创 2023-07-10 14:30:00 · 1761 阅读 · 0 评论 -
ModaHub魔搭社区测评GPTCache
实验 3将所有负样本插入到缓存中,并使用它们句子对中的另一个句子作为查询。接下来,我们随机选择 1,000 个样本,并使用对应的另 1,000 条句子(句子对中的另一个句子)作为查询语句。以上就是团队进行的典型实验,目前,我们已将 GPTCache 集成到 OSSChat 聊天机器人中,并努力收集生产环境中的统计数据。为评估 GPTCache 的性能,我们选取了一个数据集,其中包含三种句子对:语义相同的正样本、语义相关但不完全相同的负样本、语义完全不相关的中间样本。因此,所有后续测试中都会应用这个设置。原创 2023-07-04 10:00:00 · 162 阅读 · 0 评论 -
ModaHub魔搭社区:阿里云CTO周靖人:魔搭社区将成为中国最大的“大模型自由市场”
目前,大模型生态竞争日趋激烈,腾讯云、字节火山引擎等公司也纷纷推出了自己的大模型生态,同时阿里云、百度等也在积极打造自己的模型社区。阿里云表示将加强在资金和商业化探索方面的支持,努力推动中国大模型生态的发展。他表示,阿里云将致力于推动中国大模型生态的繁荣,并为大模型创业公司提供全方位的支持。阿里云还发布了自研的通义系列大模型,该系列已经涵盖了多个模型和产品。2022年,阿里云首创了以“模型即服务”为理念的MaaS概念,并构建了以AI模型为核心的云计算技术和服务架构。原创 2023-07-07 17:48:25 · 1546 阅读 · 0 评论 -
ModaHub魔搭社区:ChatGLM-RLHF:无需微调 教程
大部分的RLHF代码都是在分布式框架,不适合学习和使用,本代码的RLHF代码不需要Megatron或者deepspeed框架, 只需要传统的炼丹torch和显卡就好了,RLHF的Critic用的ChatGLM的缩小版本,而Reward咱们直接使用一个和目标输出比较的相似度模型即可。这样只需要学习核心的PPO算法即可,其他的都是已经了解的模型和结构。●RLHF数据格式的定义和使用√。○咩咩是我的主人给我起的昵称。■咩咩是我的主人给我起的昵称。○咩咩是主人给我起的。●泛化能力保持的很好嘛。●咩咩是谁给你起的?原创 2023-07-08 10:00:00 · 825 阅读 · 1 评论 -
ModaHub 魔搭社区:火山方舟是如何解决大模型互信问题的
假设有三个人,小明、小红和小刚,他们都想知道自己的身高在班里排第几,但又不想让别人知道自己的身高。老师可以给他们每人一个密钥,让他们用密钥把自己的身高加密成一串数字,然后把加密后的数字发给老师。这样,他们就可以知道自己的排名,而不暴露自己的身高。它通过密匙加密、私有网络和安全沙箱等方法,完成大数据的传递和加工,但是任何大模型供应商,包括火山方舟自己,都不知道用户的任何数据信息,从而保证了双方的安全。火山方舟是一个全面的大模型服务平台,通过整合多个大模型公司的产品,为需要大模型的企业提供联系和选择的机会。原创 2023-07-01 12:34:32 · 260 阅读 · 0 评论 -
ModaHub大禹智库:ModelScope魔搭社区的“下载数据严重造假“的说法可能存在一定的合理性
这一数据差异可能是由于用户群体的特点和应用场景的限制所导致的。ModelScope魔搭社区主要面向开发者和研究人员,他们更关注模型和数据集的分享和交流,而不是演示应用程序的开发和使用。根据提供的数据,ModelScope魔搭社区经过半年左右的发展,已经取得了一定的成绩。ModelScope魔搭社区是一个AI模型开源社区,旨在为开发者提供模型和数据集的分享和交流平台。根据ModaHub提供的数据,ModelScope魔搭社区在开发者数量和模型下载量方面表现出色,但演示应用程序数量相对较少,下载应用比例较低。原创 2023-07-02 15:48:07 · 339 阅读 · 0 评论 -
ModaHub魔搭社区:ChatGLM-6B 的 Windows 部署教程
对于已在使用的wsl用户,请注意自己数据安全,特别是做好对于已在使用的wsl用户,请注意自己数据安全,特别是做好对于已在使用的wsl用户,请注意自己数据安全,特别是做好在Windows的系统环境变量中增加变量名:PYTORCH_CUDA_ALLOC_CONF变量值:max_split_size_mb:32文档书写时使用3090 24G显存配置,其他规格酌情调整 32 至其他值,如未设置变量默认值128极大概率导致 CUDA OOM无敌三步走:Ctrl+C 终止命令执行,重新执行命令。原创 2023-07-07 15:00:00 · 802 阅读 · 0 评论 -
为什么修改几行代码GPTCache就让LLM应用提速100多倍?
因为Redis使用键值数据模型无法查询近似键,而AIGC应用中不同的单词可能具有相同的含义,需要通过语义缓存系统中的向量相似性检索来处理。使用GPTCache,用户只需修改几行代码就可以缓存LLM的响应,将LLM应用的速度提升100多倍。因此,为了满足AIGC应用的需求,我们设计了一种全新的缓存,即GPTCache。GPTCache是一种基于向量数据库技术的缓存层,为LLM应用提供语义缓存,从而显著减少数据检索时间、降低API调用开销,并提升应用的可扩展性。原创 2023-07-03 10:00:00 · 157 阅读 · 0 评论 -
ModaHub魔搭社区:GPTCache的工作原理和为什么选择 GPTCache?
GPTCache 是一个开源工具,旨在通过实现缓存来提高基于 GPT 的应用程序的效率和速度,以存储语言模型生成的响应。GPTCache 允许用户根据其需求自定义缓存,包括嵌入函数、相似度评估函数、存储位置和驱逐等选项。此外,GPTCache 目前支持 OpenAI ChatGPT 接口和 Langchain 接口。原创 2023-06-30 10:00:00 · 515 阅读 · 0 评论