Agent
Agent:大模型的插件
Agent = 大模型 + 插件 + 执行流程,是大模型能力的外延
智能带来的框架:LLM-based Agent,包含三个组成部分:控制端(brain),感知端(Perception)和行动端(Action)
控制端:Brain,大模型的大脑,是Agent的核心
- 自然语言交互
- 知识
- 记忆力
- 推理和规划能力
- 迁移性和泛化性。情景学习和持续学习。见人说人话,见鬼说鬼话
感知端:Perception,大模型的耳朵和眼睛
- 文本输入
- 视觉输入
- 听觉输入
- 其他输入
行动端:Action,大模型的手和脚
- 文本输出
- 其他模型
LLAMA Index:辅助模型的记忆力。知识的外挂
- 列表索引
- 向量存储索引
- 树索引,把数据和知识以不同的结构存储起来,然后通过不同的检索方式获取知识。
- 关键词索引
- 知识图谱索引
COT:chain of though
TOT:搜索、评估、回溯
总结:
Agent,
- 给大模型加外挂
1、外挂辅助输入,例如:外部调用日历
2、外挂输出。日期:2023-12-21,目标:挑起,调用工具:气象接口
- 思维链条
把复杂的问题进行拆解,不指望大模型一次回答出来,多调用几次大模型,解决复杂问题
如果说大模型是电池:核心能力,
则agent就是一辆电动车:最终交付,最终产品
Agent的缺点:
1、依赖大模型的核心能力,大模型本身够强大才行
2、链路过长,某一个环节出错,前功尽弃
3、多次调用模型,效率不高
4、迁移能力弱,换模型需要重新写提示词
5、能力强弱,取决于写提示词的水平
大模型性能力是有上限的,端到端虽然理想,但是复杂问题很难解决,Agent这种拆解方式,可能会流行
羊驼系列大模型
LLaMA(美洲驼)模型
- 相比之前的大模型,LLaMA完全是在公共开源预训练数据上训练的
- 推理效率也是LLaMA的一个亮点,可以在蛋单卡V100完成推理
关键网址:
训练数据同GPT,目标打造类似安卓的生态圈。GPT类型于IOS
AIPaca模型
基于LLaMA微调而来的全新模型(套壳),大模型的屌丝化,仅需600美元成本
Vicuna模型
比对情况
国产大模型
华驼,百川大模型,文心一言(原创)等