Cohere推出全新升级版RAG大型AI模型:支持中文,搭载1040亿参数,现开源其权重!

 4月5日,知名类ChatGPT平台Cohere在其官方网站上发布了一款全新的模型——Command R+。

    据官方消息,Command R+拥有1040亿个参数,并且支持包括英语、中文、法语、德语在内的10种语言。这一模型的显著特点之一在于其对内置的RAG(检索增强生成)技术进行了全面强化。

     Cohere已经开源了Command R+的权重,但仅限学术研究使用,商业应用需通过特定渠道。想商业应用,用户可以通过微软Azure云使用该模型或者Cohere提供的API。

huggingface地址:https://huggingface.co/CohereForAI/c4ai-command-r-plus

量化版:https://huggingface.co/CohereForAI/c4ai-command-r-plus-4bit

图片

Command 介绍

    Cohere联合创始人兼Transformer作者之一的Aidan Gomez表示,RAG作为目前大模型厂商必备模块之一,Command R+对该功能进行了深度强化,在提升生成内容的准确的同时,极大减少了模型的“幻觉”。

    根据其发布的性能测试数据显示,在多语言、RAG、工具使用三大模块,Command R+的性能基本与GPT-4 turo差不多,大幅度超过知名开源模型Mistral。

    由于Command R+内置了一个高级分词器,对非英语文本的压缩效果比市面上其他模型好得多能够实现高达 57% 的成本降低

    

图片

    

    所以,在大模型输入方面成本只有GPT-4 turo的三分之一,输出只有其二分之一,可以帮助企业节省大量资金

    Command R+的另一个显著特点在于它能够与企业内部的各类业务平台无缝集成,从而推动企业业务流程的自动化。在Gomez的观点中,强大的语言模型不仅仅是生成文本的工具,对于企业而言,它们就像一台“动力引擎”,可以作为核心逻辑推理引擎,助力复杂业务流程的自动执行,其功能与机器人流程自动化(RPA)相似。

    Command R+具备与企业的客户关系管理(CRM)、企业资源规划(ERP)、人力资源(HR)等不同种类的软件系统进行整合的能力。例如,通过将大型AI模型嵌入CRM系统中,企业可以实现客户信息、互动记录和日志更新等工作的自动处理和管理,极大提高操作效率,优化客户体验。

图片

RAG是什么

    RAG(Retrieval-Augmented Generation)是一种结合了信息检索和生成的技术,主要为大型语言模型提供外部知识源,以便生成更准确、更丰富的回答或内容,并减少模型的幻觉问。

尤其是在需要广泛背景知识来生成响应的任务中,例如,问答、文本摘要和拟人对话等。

图片

    RAG的主要架构确实包括检索器、生成器和融合机制这三大核心部分。具体如下:

1. 检索器:它的作用是在给定输入(例如一个自然文本提问)时,从一个大规模的文档集合中快速检索出相关的文档或信息片段。为了实现高效的检索,可以采用诸如BM25、Dense Passage Retrieval等基于向量空间模型的方法。

2. 生成器:通常是预训练的大型语言模型,比如GPT-4、Command R+等。这些模型使用检索到的文档作为额外的上下文信息,生成与输入相关的回答或文本。

3. 融合机制:这是在检索到的文档和原始输入之间建立联系的机制,决定了如何将检索到的信息整合到生成过程中,以提高生成文本的相关性和准确性。可以通过直接将检索结果作为生成器的一部分输入,或使用更复杂的注意力机制来动态选取最相关的信息来实现不同的融合方式。

    此外,RAG的技术不仅能够提升大模型在生成内容时的相关性和准确性,还能通过检索引入的背景知识显著减少算力需求。这对于需要特定知识背景的任务尤其重要,因为大模型直接生成响应可能需要耗费巨大的AI算力。

    综上所述,RAG架构通过结合先进的搜索技术和大型语言模型的能力,为各种应用场景提供了强大的支持,从对话式AI和内容创建,到处理搜索引擎中的复杂查询,都体现了其多功能性和实用性。

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Cohere GPT是由Cohere Technologies开发的一种基于GPT模型自然语言处理工具。它是一个强大的语言生成模型,可以用于各种任务,如文本生成、对话系统、代码自动补全等。 Cohere GPT的优势在于其训练数据和模型权重的质量。Cohere Technologies使用大规模的数据集和强大的计算资源来训练模型,以提供更准确和流畅的生成结果。此外,Cohere GPT还具有较低的推理成本,可以在实时应用中快速生成响应。 以下是一个使用Cohere GPT生成文本的示例: ```python import torch from transformers import GPTNeoForCausalLM, GPT2Tokenizer # 加载预训练的Cohere GPT模型和分词器 model = GPTNeoForCausalLM.from_pretrained("EleutherAI/gpt-neo-1.3B") tokenizer = GPT2Tokenizer.from_pretrained("EleutherAI/gpt-neo-1.3B") # 输入文本 input_text = "Once upon a time" # 将输入文本编码为模型可接受的输入张量 input_ids = tokenizer.encode(input_text, return_tensors="pt") # 使用Cohere GPT生成下一个词 output = model.generate(input_ids, max_length=50, num_return_sequences=1) # 解码生成的文本 generated_text = tokenizer.decode(output[0], skip_special_tokens=True) # 打印生成的文本 print(generated_text) ``` 这段代码使用了Cohere GPT的预训练模型和分词器,将输入文本编码为模型可接受的输入张量,然后使用模型生成下一个词,并将生成的文本解码为可读的格式。你可以根据需要调整`max_length`参数来控制生成文本的长度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT大头

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值