年度最佳!LLMs大模型盘点!

大型语言模型,简称LLMs,现在可以说是无处不在了。今天,我就来给大家介绍一下最火的LLMs大模型都有哪些!

2024年最佳LLMs

有几十个主要LLMs的,还有几百个可以说是重要的,因为某种原因。将它们全部列出几乎是不可能的,无论如何,由于开发速度太快LLMs,它会在几天内过时。

对“最佳”这个词持保留态度:我试图通过提供最重要、最有趣和最受欢迎的LLMs(和 LMM)列表来缩小范围,不一定是那些在基准测试中表现出色的(尽管其中大多数确实如此)。我主要关注LLMs实用的东西——而不是那些超级有趣的研究论文的主题——因为我们喜欢在这里保持实用。

如下面列表了解更多信息。

什么是LLM

LLM(大型语言模型)是一种通用的 AI 文本生成器。这是所有 AI 聊天机器人和 AI 写作生成器的幕后内容。

LLMs是增压自动完成的。去掉了花哨的界面和其他解决方法,他们所做的是接受提示并使用一串看似合理的后续文本生成答案。建立在之上LLMs的聊天机器人不会寻找关键字,因此它们可以用预设回复来回答——相反,它们会尽最大努力理解所问的内容并做出适当的回复。

这就是真正起飞的原因LLMs:相同的模型(有或没有一些额外的培训)可以用来回应客户的查询、编写营销材料、总结会议记录,以及做更多的事情。

大模型工作原理

早期LLMs,像 GPT-1 一样,会在几句话后分崩离析并开始产生废话,但今天的 LLMsGPT-4 可以生成数千个有意义的单词。

为了达到这一点,LLMs他们接受了大量数据的训练。具体细节因人LLMs而异——这取决于开发人员对完全获得他们所使用材料的权利的谨慎程度——但作为一般规则,你可以假设他们已经接受过相当于整个公共互联网和每本主要书籍的培训曾经出版过。这就是为什么可以生成在如此广泛的主题上听起来如此权威的LLMs文本。

从这些训练数据中,LLMs能够使用高维向量对不同单词(或者实际上称为标记的单词的一部分)之间的关系进行建模。这就是事情变得非常复杂和数学化的地方,但基本原理是每个单独的令牌最终都有一个唯一的 ID,并且类似的概念被组合在一起。然后,它被用来生成神经网络,这是一种基于人脑工作方式的多层算法,这是每个LLM.

神经网络有一个输入层、一个输出层和多个隐藏层,每个隐藏层都有多个节点。正是这些节点计算了输入中应该遵循的单词,并且不同的节点具有不同的权重。例如,如果输入字符串包含单词“Apple”,神经网络将不得不决定跟进“Mac”或“iPad”之类的内容,“pie”或“crumble”之类的内容,或者完全其他内容。当我们谈论一个LLM有多少参数时,我们基本上是在比较底层神经网络中有多少层和节点。通常,节点越多,模型能够理解和生成的文本就越复杂。

当然,在开放互联网上训练的人工智能模型几乎没有方向,听起来像是噩梦。而且它可能也不是很有用,所以在这一点上,接受进一步的培训和微调,LLMs以指导他们产生安全和有用的响应。其工作方式之一是调整不同节点的权重,尽管它还有其他方面。

一旦你对它们的工作原理有了一点了解,就很容易理解为什么它们如此擅长回答某些类型的问题。也很容易理解为什么他们倾向于编造(或产生幻觉)随机事物。

例如,以以下问题为例:

  • 美国使用什么货币?

  • 世界上最高的山是什么?

这些都很容易,LLMs因为他们训练的文本很可能已经生成了一个倾向于正确响应的神经网络。

然后看看这样的问题:

  • 一吨羽毛还是一吨羽毛,什么更重?

你更有可能从中得到一些奇怪的东西。神经网络仍将生成后续文本,但由于问题棘手或不正确,因此不太可能是正确的。

可以LLMs用来做什么?

LLMs之所以强大,主要是因为它们能够推广到许多不同的情况和用途。同一个内核LLM(有时需要一些微调)可以用来执行数十种不同的任务。虽然他们所做的一切都是基于生成文本,但提示他们这样做的具体方式会改变他们似乎具有的功能。

以下是一些常用的任务LLMs:

  • 通用聊天机器人(如 ChatGPT 和 Google Bard)

  • 接受过企业文档和数据培训的客户服务聊天机器人

  • 将文本从一种语言翻译成另一种语言

  • 将文本转换为计算机代码,或将一种语言转换为另一种语言

  • 生成社交媒体帖子、博客文章和其他营销文案

  • 情绪分析

  • 审核内容

  • 更正和编辑写作

  • 数据分析

还有数百种其他东西。我们才刚刚处于当前人工智能革命的早期阶段。

但也有很多事情做LLMs不到,但其他类型的人工智能模型可以。举几个例子:

  • 解释图像

  • 生成图像

  • 在不同格式之间转换文件

  • 搜索网络

  • 执行数学运算和其他逻辑运算

当然,有些LLMs聊天机器人似乎可以做其中的一些事情。但在大多数情况下,还有另一个人工智能服务介入协助。当一个模型处理几种不同类型的输入时,它实际上不再被认为是一个大型语言模型,而变成了一个大型多模态模型(尽管在某种程度上,它只是语义)。

有了所有这些背景,让我们继续讨论LLMs他们自己。

2024年最佳LLMs

GPT

  • 开发商:OpenAI

  • 参数:超过1750亿

  • 访问:API

OpenAI 的生成式预训练转换器 (GPT) 模型启动了最新的 AI 炒作周期。目前有两种主要型号可供选择:GPT-3.5-turbo 和 GPT-4。GPT 是一种LLM带有 API 的通用工具,它被各种公司(包括 Microsoft、Duolingo、Stripe、Descript、Dropbox 和 Zapier)用于为无数不同的工具提供支持。尽管如此,ChatGPT 可能是其功能最受欢迎的演示。

您还可以将 Zapier 连接到 GPT 或 ChatGPT,这样您就可以直接从技术堆栈中的其他应用程序使用 GPT。以下是有关如何自动化 ChatGPT 的更多信息,或者您可以开始使用这些预制工作流程之一。

Google Gemini

  • 开发商:Google

  • 参数:Nano 有 18 亿和 32.5 亿版本;其他未知

  • 访问:API

Google Gemini 是 Google 的一系列 AI 模型。这三种型号——Gemini Nano、Gemini Pro 和 Gemini Ultra——旨在在不同的设备上运行,从智能手机到专用服务器。虽然能够生成像 LLM一样的文本,但 Gemini 模型本身也能够处理图像、音频、视频、代码和其他类型的信息。

Gemini Pro 现在为 Google 聊天机器人 Bard 上的一些查询提供支持,开发人员可以通过 Google AI Studio 或 Vertex AI 使用。Gemini Nano 和 Ultra 将于 2024 年推出。

PaLM 2

  • 开发商:Google

  • 参数:3400亿

  • 访问:API

PaLM 2 是 Google 的产品LLM。它专为自然语言任务而设计,支持 Google Bard 上的大多数查询,以及 Google 在其应用程序中的许多其他 AI 功能,例如 Docs 和 Gmail。它也可以作为 API 提供给开发人员。

Llama 2

  • 开发商:Meta

  • 参数:70 亿、130 亿和 700 亿

  • 访问:开源

Llama 2 是 Facebook 和 Instagram 的母公司 Meta 的开源LLMs系列。它是最流行和最强大的开源LLMs之一,您可以自己从 Github 下载源代码。因为它是免费用于研究和商业用途的,所以许多其他LLMs人使用 Llama 2 作为基础。

Vicuna

  • 开发商:LMSYS Org

  • 参数:70 亿、130 亿和 330 亿

  • 访问:开源

Vicuna 是一个基于 Meta 的 Llama LLM构建的开源聊天机器人。它被广泛用于人工智能研究,并作为 Chatbot Arena 的一部分,Chatbot Arena 是由 LMSYS 运营的聊天机器人基准测试。

Claude 2

  • 开发商:Anthropic

  • 参数:未知

  • 访问:API

Claude 2 可以说是 GPT 最重要的竞争对手之一。它旨在为企业客户提供有用、诚实、无害且至关重要的安全使用。因此,Slack、Notion 和 Zoom 等公司都与 Anthropic 合作。

像所有其他专有LLMs产品一样,Claude 2 仅作为 API 提供,尽管它可以根据您的数据进行进一步训练并进行微调以响应您的需求。您还可以将 Claude 连接到 Zapier,以便您可以从所有其他应用程序自动执行 Claude。

Stable Beluga 和 StableLM

  • 开发商:Stability AI

  • 参数:70 亿、130 亿和 700 亿

  • 访问:开源

Stability AI 是 Stable Diffusion 背后的团队,Stable Diffusion 是最好的 AI 图像生成器之一。他们还发布了一些LLMs基于 Llama 的开源软件,包括 Stable Beluga 和 StableLM,尽管它们远不如图像生成器那么受欢迎。

Coral LLM

  • 开发商:Cohere

  • 参数:未知

  • 访问:API

与 Claude 2 一样,Cohere 的 Coral LLM 是为企业用户设计的。它同样提供了一个API,并允许组织根据自己的数据训练其模型的版本,因此它可以准确地响应客户的查询。

Falcon

  • 开发商:Technology Innovation Institute

  • 参数:13亿、75亿、400亿、1800亿

  • 访问:开源

Falcon 是一个开源系列LLMs,在各种 AI 基准测试中一直表现良好。它拥有多达 1800 亿个参数的模型,在某些任务中可以胜过 PaLM 2、Llama 2 和 GPT-3.5。它是在宽松的 Apache 2.0 许可下发布的,因此适合商业和研究用途。

MPT

  • 开发商:Mosaic

  • 参数:70亿、300亿

  • 访问:开源

Mosaic 的 MPT-7B 和 MPT-30B LLMs 是两个更强大、更受欢迎、市售LLMs的 .有趣的是,它们不是建立在 Meta 的 Llama 模型之上的,这与许多其他开源模型不同。MPT-30B 的性能优于原始的 GPT-3,并且像 Falcon 一样在 Apache 2.0 许可下发布。有几个不同的版本可用,针对聊天等内容进行微调,最有趣的是,一个 7B 版本经过微调,用于生成长篇小说作品。

Mistral 8x7B

  • 开发商:Mistral

  • 参数:467亿

  • 访问:开源

Mistral 的 Mixtral 8x7B 使用一系列子系统来有效地超越大型模型。尽管参数要少得多(因此能够在功能较弱的硬件上运行得更快),但它的性能能够胜过 Llama-70B 并匹配或击败 GPT-3.5。它也是在 Apache 2.0 许可下发布的。

XGen-7B

  • 开发商:Salesforce

  • 参数:70亿

  • 访问:开源

Salesforce 的 XGen-7B 并不是一个特别强大或流行的开源模型——它的性能与其他具有 70 亿个参数的开源模型差不多。但我仍然认为它值得一提,因为它突出了有多少大型科技公司拥有人工智能和机器学习部门,可以开发和推出自己的LLMs部门。

GROK

  • 开发商:xAI

  • 参数:未知

  • 访问:聊天机器人

Grok 是一个根据 X(前身为 Twitter)的数据进行训练的聊天机器人,就其本身的优点而言,它并不能真正保证在这个列表中占有一席之地,因为它没有被广泛使用,也不是特别好。不过,我在这里列出它,因为它是由埃隆·马斯克(Elon Musk)创立的人工智能公司xAI开发的。虽然它可能不会在人工智能领域掀起波澜,但它仍然得到了大量的媒体报道,所以值得知道它的存在。

为什么有这么多LLMs?

直到一两年前,LLMs还仅限于研究实验室和人工智能会议上的技术演示。现在,它们正在为无数的应用程序和聊天机器人提供动力,并且有数百种不同的模型可供您自己运行(如果您具有计算机技能)。我们是怎么走到这一步的?

嗯,有几个因素在起作用。一些大的有:

  • 通过 GPT-3 和 ChatGPT,OpenAI 证明了人工智能研究已经达到了可以用来构建实用工具的地步——因此许多其他公司也开始这样做。

  • LLMs训练需要大量的计算能力,但可以在几周或几个月内完成。

  • 有许多开源模型可以重新训练或改编为新模型,而无需开发一个全新的模型。

  • 有很多钱被投入到人工智能公司,所以任何有技能和知识的人都有很大的动力去开发任何形式的LLM人工智能。

对未来的展望

我认为我们将在不久的将来看到更多LLMs,尤其是来自大型科技公司。亚马逊、IBM、英特尔和英伟达都在LLMs开发中,正在测试中,或可供客户使用。它们不像我上面列出的模型那样嗡嗡作响,普通人也不太可能直接使用它们,但我认为期望大型企业开始广泛部署它们是合理的。

我还认为,我们将看到更高效LLMs的定制功能,可以在智能手机和其他轻量级设备上运行。谷歌已经暗示了这一点 Gemini Nano,它在 Google Pixel Pro 8 上运行了一些功能。Mistral 的 Mixtral 8x7B 等开发展示了使小型LLMs产品能够有效地与大型产品竞争的技术。

即将到来的是,多模态模型或LMM。这些将文本生成与其他模式(如图像和音频)相结合,因此您可以向聊天机器人询问图像中发生了什么,或者让它用音频进行响应。GPT-4 Vision (GPT-4V) 和谷歌的 Gemini 模型是首批可能被广泛部署的两个 LMM,但我们肯定会看到更多。

除此之外,谁能说得清呢?三年前,我绝对不认为我们会免费提供像 ChatGPT 这样强大的 AI。也许几年后,我们将拥有通用人工智能(AGI)。

大模型岗位需求

大模型时代,企业对人才的需求变了,AIGC相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。
在这里插入图片描述

掌握大模型技术你还能拥有更多可能性

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把全套AI技术和大模型入门资料、操作变现玩法都打包整理好,希望能够真正帮助到大家。

-END-


👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

  • 22
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值