还没搞懂嵌入(Embedding)、微调(Fine-tuning)和提示工程(Prompt Engineering)?

嵌入(Embedding)、微调(Fine-tuning)和提示工程(Prompt Engineering) 是AIGC 模型的核心功能,合理运行这些功能,能实现一些复杂和意向不到的应用。

前言

Prompt和Embedding是AIGC模型的核心功能,语言处理应用。例如,它们可以用于聊天机器人、语言翻译、摘要生成、文本分类等。Fine-tuning技术可以用于优化预训练模型,以提高其在特定任务中的性能,例如问答、文本摘要、语言理解等。

image.png

一、嵌入(Embedding)

嵌入是浮点数的向量(列表)。两个向量之间的距离衡量它们的相关性。小距离表示高相关性,大距离表示低相关性。

image.png

嵌入通常用于:

  1. Search 搜索(结果按与查询字符串的相关性排序)
  2. Clustering 聚类(文本字符串按相似性分组)
  3. Recommendations 推荐(推荐具有相关文本字符串的条目)
  4. Anomaly detection 异常检测(识别出相关性很小的异常值)
  5. Diversity measurement 多样性测量(分析相似性分布)
  6. Classification 分类(其中文本字符串按其最相似的标签分类)

【一一AGI大模型学习 所有资源获取处一一】

①人工智能/大模型学习路线

②AI产品经理资源合集

③200本大模型PDF书籍

④超详细海量大模型实战项目

⑤LLM大模型系统学习教程

⑥640套-AI大模型报告合集

⑦从0-1入门大模型教程视频

⑧LLM面试题合集

二、微调 (Fine-tuning)

微调通过训练比提示(prompt)中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示(prompt)中提供示例。这样可以节省成本并实现更低延迟的请求。

image.png

image.png

三、提示工程(Prompt Engineering)

如果没有良好的提示设计和基础技术,模型很可能产生幻觉或编造答案,其危险在于,模型往往会产生非常有说服力和看似合理的答案,因此必须非常小心地设计安全缓解措施和地面模型的事实答案,所以提示工程应运而生。

提示工程(Prompt Engineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大语言模型(Large Language Model, LLM)用于各场景和研究领域。 掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性

研究人员可利用提示工程来提升大语言模型处理复杂任务场景的能力,如问答和算术推理能力。开发人员可通过提示工程设计、研发强大的工程技术,实现和大语言模型或其他生态工具的高效接轨。

提示工程不仅仅是关于设计和研发提示词。它包含了与大语言模型交互和研发的各种技能和技术。提示工程在实现和大语言模型交互、对接,以及理解大语言模型能力方面都起着重要作用。用户可以通过提示工程来提高大语言模型的安全性,也可以赋能大语言模型,比如借助专业领域知识和外部工具来增强大语言模型能力。

3.1 大语言模型设置

image.png

Temperature:简单来说,temperature 的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果,也就是说这可能会带来更多样化或更具创造性的产出。我们目前也在增加其他可能 token 的权重。在实际应用方面,对于质量保障(QA)等任务,我们可以设置更低的 temperature 值,以促使模型基于事实返回更真实和简洁的结果。 对于诗歌生成或其他创造性任务,你可以适当调高 temperature 参数值。

Top_p:同样,使用 top_p(与 temperature 一起称为核采样的技术),可以用来控制模型返回结果的真实性。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。

3.2 提示词的技巧

提示词的技巧包括但不限于:

  • 使用最新的模型以获得最佳效果
  • 将指令放在提示符的开头,并使用###或”""来分隔指令和上下文
  • 对于所需的上下文、结果、长度、格式、风格等,要尽可能具体、描述和详细
  • 通过示例清晰地表达所需的输出格式
  • 从零样本开始,然后是少样本,当它们都不起作用,再进行微调减少“蓬松”和不精确的描述
  • 不要只是说什么不要做,而是说什么要做
  • 特定的代码生成一一使用“引导词”将模型推向特定的模式

3.3 零样本提示(Zero Shot)

零样本提示即用户不提供任务结果相关的示范,直接提示语言模型给出任务相关的回答。

隐私过滤

企业内容个人信息过滤。

system_message

请根据用户的输入,审查个人信息,将涉及个人隐私信息的内容,用【隐私内容】替代,其他内容不做任何更改。


input

彭磊是新裤子乐队的主唱,常驻于北京八大胡同xx四合院,电话是【隐私内容】,其乐队成员有庞宽,赵梦,代表作有《生活因你而火热》、《没有理想的人不伤心》等。

output

image.png

数据结构化 大语言模型具备惊人的的零样本能力。 system_message

根据用户输入的创建AWS EC2的实例请求,生成JSON文件。
提取用户对话中提到的实例的区域,实例类型,磁盘大小。

input

创建一台us-east-1区域,实例类型为t2.micro的,磁盘大小为50G的AWS EC2 实例。

output

image.png

image.png 更多提示 system_message

根据用户输入的创建AWS EC2的实例请求,生成JSON文件。提取用户对话中提到的实例的区域,实例类型,磁盘大小。
如果用户输入不足以创建AWS EC2 实例,不要生成Json,进行追问,直到可以生成为止。

input

创建一台us-east-1区域,实例类型为t2.micro的AWS EC2 实例。

output

image.png

3.4 少样本提示(Few Shot)

当零样本不起作用时,建议在提示中提供演示或示例,这就引出了少样本提示。

用户举例。

创建一台us-east-1区域,实例类型为t2.micro的,磁盘大小为50G的AWS EC2 实例。

{
"region": "us-east-1",
"InstanceType": "t2.micro",
"diskSize": "50G"
}


image.png

output

image.png

3.5 链式思考提示(CoT)

**链式思考(CoT)**提示通过中间推理步骤实现了复杂的推理能力,可以将其与少样本提示相结合,以获得更好的结果,以便在回答之前进行推理的更复杂的任务。

image.png

image.png

最近提出来的有零样本CoT,它基本上涉及将“让我们逐步思考”添加到原始提示中。让我们尝试一个简单的问题,看看模型的表现如何:

image.png

这个简单的提示在这个任务中非常有效。这在您没有太多示例可用于提示时特别有用。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
在这里插入图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
在这里插入图片描述

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: tencent-ailab-embedding-zh-d200的加载速度慢可能是由多种因素造成的。 首先,加载速度慢可能是因为模型文件较大,导致加载过程需要花费较长的时间。如果网络连接较慢,下载模型文件的速度也会变慢。 其次,加载速度慢可能是因为硬件设备的性能较低,无法快速处理大型模型文件。特别是对于有GPU支持的设备,模型加载速度会相对较慢。 此外,加载速度慢还可能与软件版本兼容性问题有关。如果使用的是较旧的软件版本,可能与模型文件不适配,导致加载速度下降。 解决这个问题的方法有几种。首先,可以尝试使用更快的网络连接,提高下载速度。其次,可以考虑升级硬件设备,使用高性能的设备来加载模型文件。同时,也可以更新软件版本,确保与模型文件兼容,提高加载速度。 总之,解决tencent-ailab-embedding-zh-d200加载速度慢的问题,需要从网络连接、硬件设备以及软件版本等多个方面进行综合优化。 ### 回答2: tencent-ailab-embedding-zh-d200是一个用于中文文本表示的预训练模型。如果加载速度慢,可能有以下几个原因: 1. 网络问题:加载预训练模型需要从远程服务器下载模型文件,如果网络连接速度较慢或不稳定,下载过程会变得很慢。可以尝试连接更稳定的网络或更换网络环境来提高加载速度。 2. 硬件性能限制:加载大型模型需要消耗大量的计算资源,如CPU、内存和硬盘。如果计算设备的性能较低,加载速度可能会受到限制。可以尝试使用更高性能的计算设备,如云服务器或GPU加速,来加快加载速度。 3. 缓存问题:加载预训练模型的过程中,一般会将模型文件缓存到本地,以便下次加载时更快。如果缓存文件已经存在,加载速度应该会更快。可以检查本地缓存是否存在或者尝试清除缓存,然后重新加载模型。 4. 模型大小:tencent-ailab-embedding-zh-d200是一个200维的模型,相对来说较大。如果计算设备的存储空间较小,加载速度可能会减慢。可以尝试在更大的存储空间上加载模型,或者选择其他维度较小的模型,以提高加载速度。 总之,加载速度慢可能是由于网络问题、硬件性能限制、缓存问题或模型大小等因素导致的。可以根据具体情况采取相应的优化措施来提高加载速度。 ### 回答3: Tencent-AILab-Embedding-ZH-D200是一个中文词向量模型,用于将中文词语转化为固定长度的向量表示。根据问题描述,它的加载速度较慢可能是由于以下几个原因所导致的。 首先,模型的大小可能较大,导致加载速度变慢。如果模型文件非常大,加载过程会耗费更多的时间。解决该问题的一个方法是使用更快的存储介质,例如SSD硬盘,以加快加载速度。 其次,在加载模型之前,可能需要进行一些预处理步骤,例如初始化依赖库、加载词典等。如果这些预处理步骤耗时较长,那么整个加载过程也会相应变慢。对于此类问题,可以尝试优化预处理步骤,减少不必要的计算和IO操作,以提高加载速度。 此外,加载模型时的硬件配置也可能对加载速度产生影响。如果使用的是较低配置的计算机或服务器,那么加载速度可能会受到限制。在这种情况下,升级硬件设备或增加计算资源可以提高加载速度。 最后,网络连接的速度也会影响加载速度。如果您是通过云端服务加载模型,则需要确保网络连接稳定且速度较快。如果网络连接存在问题,可以尝试使用其他网络连接进行加载。 综上所述,要提高Tencent-AILab-Embedding-ZH-D200加载速度,可以考虑使用更快的存储介质、优化预处理步骤、升级硬件设备、改善网络连接等方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值