动手学大模型应用开发-Task01

第一章 大模型简介

1、大语言模型旨在理解和生成人类语言
2、为什么叫大语言模型?

参数巨大,能够解决复杂任务。

3、LLM的应用

在自然语言处理领域,更好地理解和生成文本,包括写文章、回答问题、翻译语言等;在信息检索领域,可以改进搜索引擎,更轻松地找到所需地信息;在计算机视觉领域,让计算机更好地理解图像和文字,以改善多媒体交互。

4、LLM的出现让人们重新思考了通用人工智能(AGI)的可能性。AGI 是一种像人类一样思考和学习的人工智能。
5、大模型的能力
(1)涌现能力

上下文学习、指令遵循、逐步推理

(2)作为基座模型支持多元应用的能力
(3)支持对话作为统一入口的能力
6、大模型的特点

巨大的规模、预训练和微调、上下文感知、多语言支持、多模态支持(文字、图像、语音)、涌现能力、多领域应用(文本生成、自动翻译、信息检索、摘要生成、聊天机器人、虚拟助手等)、伦理和风险问题

7、常见大模型
(1)GPT系列(不开源)

ChatGPT(基于 GPT-3.5 和 GPT-4 开发出来的)、GPT-4(将文本输入扩展到多模态信号)

(2)Claude系列(不开源)

Claude-2( 在编码基准和人类反馈评估方面性能显著提升、通常用于将长而复杂的自然语言文档转换为结构化数据格式)

(3)PaLM 系列(不开源)

Med-PaLM 是 PaLM 540B 在医疗数据上进行了微调后的版本

PaLM-E 是 PaLM 的多模态版本

PaLM 2(数据和模型大小大致按照 1:1 的比例缩放、能够处理“多语言任务”)

(4)文心一言(不开源)

文心一言是基于百度文心大模型的知识增强语言大模型

(5)星火大模型(不开源)

讯飞星火 V2.0 升级发布的多模态能力,已实现图像描述、图像理解、图像推理、识图创作、文图生成、虚拟人合成

星火大模型比ChatGPT更懂中文

(6)LLaMA 系列(开源)

仅使用公开可用的数据集来训练最先进的模型、使用了大规模的数据过滤和清洗技术、使用了大规模的数据过滤和清洗技术

(7)GLM 系列(开源)

ChatGLM 2: 能够处理更长的长下文、能够进一步地提升推理速度

(8)通义千问(开源)

基础模型Qwen、对话模型 Qwen-Chat

(9)Baichuan 系列(开源)

百川同时开源了预训练和对齐模型,预训练模型是面向开发者的“基座”,而对齐模型则面向广大需要对话功能的普通用户

8、LangChain

旨在帮助开发者们快速构建基于大型语言模型的端到端应用程序或工作流程。

它能够让语言模型与其他数据来源连接,并且允许语言模型与其所处的环境进行互动

本文参考链接(如有侵权请告知删除):https://datawhalechina.github.io/llm-universe/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值