LLM学习笔记

一、概念/术语

● AI(Artificial Intelligence,人工智能) 是一种利用计算机技术来实现人类智能的科学。

● ML(Machine Learning,机器学习)是AI的一个分支,是一种让计算机从数据中自动学习规律并不断改进性能的技术。

● Deep Learning(深度学习)是Machine Learning的一种形式,它使用具有多个层次的神经网络来进行学习和预测,可以更好地处理大量的复杂数据,如图像和语音。

● Generative AI(生成式AI)是AI的一个分支,也是Deep Learning的一种形式,它专注于让计算机生成新的数据、图像或文本、音频、视频等。

● LLM(Language Large Model,大型语言模型)则是Generative AI的一种形式,它通过训练大规模文本语料库来自动学习自然语言处理中的语言模式,并生成能够表达人类语言的文本。

他们之间的关系如下图所示(引用自Introduction to Large Language Modelsby google ):





Deep Learning是Machine Learning的一种形式,Generative AI是AI的一个分支,并包括多种生成新数据的技术,而Language Large Model是Generative AI的一种形式,是一种基于深度学习的自然语言处理技术。这些技术之间存在着交叉和重叠,它们共同推动了人工智能技术的不断发展。

二、LLM & ChatGPT简介

LLM的分类

LLMs大致可分为两类:基础LLM(Base LLM)和指令调优LLM(Instruction-Tuned LLM)。

● 基础LLM是通过从互联网和其他渠道获得的大量数据进行预训练,可以根据文本训练数据预测下一个单词的基础模型。

● 指令调优LLM是在基础LLM之上进一步训练它,根据用户输入的指令(输入)以及回答(输出)的反馈进行优化,让其尽量遵循这些指令,更加符合具体的场景。

GPT、GPT-2、GPT-3是base LLM,而ChatGPT是在GPT-3模型之上进行了调整以更好地响应聊天任务和生成连贯的对话的Instruction-Tuned LLM。



简单体验过ChatGPT后,对ChatGPT在于人的对话过程中展示出来“渊博的知识”很容易让人对它产生误会,认为它是一个庞大的知识库或是一个搜索引擎,事实并非如此。

● ChatGPT不是一个知识库。比如你让他给你讲一个笑话,它不会从已有的“笑话大全”中随机选择一个讲给你听,它讲的笑话都是自己编的“原创”的,这些笑话你从任何知识库都不会找到。

● ChatGPT不是搜索引擎。它(当前)并不会从网络上搜索你的问题答案然后转发给你,而是会自己根据自己学到的知识来生成答案,这些答案中的句子,我们也很难在网上找到相同的。所以他生成的内容也不是从网上搜索+拼凑的。



那么ChatGPT到底是啥?本质上它就是一个么得感情的文字接龙工具。你给他开个头,他就能顺着你的话预测后面该接什么字/词/标点符号等。比如下图给定一个输入“什么是ChatGPT?”,它的“回答过程”:





LLM预测的下一个字/词是概率获得的,就是通过上图中的函数计算出来的,所以我们会发现问它相同的问题,它可能每次回答都不一样。特别是我们在使用OpenAPI提问的时候,将temperature设置为比较大的数,它就会很“飘”,生成的文本更具多样性和创意。这是我们通过这个参数增加了输出的随机性的结果,可以理解为让小概率字/词也有输出的机会。在《异形》这部电影中,第二代生化人Walter,能够非常轻松的学会第一代生化人David教他吹笛子,但是它却无法创造出哪怕一首最简单的曲子,几乎没有创造力,原因就在于David的temperature数值是比Walter的要高的。



但是既然是文字接龙,既然是随机,为啥生成出来的“回答”感觉还挺丝滑,挺合理的呢?这个说来话长,简单来讲就是——大力出奇迹,即在训练数据和模型参数足够大的时候,大语言模型会出现“顿悟”现象(扩展阅读:Emergent Abilities of Large Language Models)。

在ChatGPT中,上图中的函数f有1700亿+参数(GPT-3.5-turbo,ChatGPT比3.5应该更多),训练数据有45T,过滤后高质量数据有570G,通过大量数据和先进算法的预训练,它能展现出像人一样的分析能力。具体如何做到的在此不展开,有兴趣的可以自行去看一下ChatGPT的原理和核心技术,比如embedding技术、自监督学习技术、Transformer架构、self attention机制等。在这里,通过一个例子来模拟一下ChatGPT的工作过程:

一个求生欲满满的男生,他要回答他女朋友的一道送命题:“亲爱的,你在我之前谈过几个女朋友啊”

男生在观察周围环境和女朋友微表情的同时大脑在疯狂运转,获取一切可以获取的信息:女朋友的特点是杀伐果断、会嫉妒,长得漂亮,内心柔弱,但是现在看起来心情还不错。

根据这些特点,要避免提及具体数字以防触发她嫉妒的暴走机关走向杀伐果断的直接gg;要多选择夸她优点的词汇让她在开心中迷失自我;回答问题的时候要将赞美的词语重点强调,最好加上一些肢体语言和微表情显得自己真诚、笃定。

男生一字一顿虔诚的回答道:“亲爱的,在遇到你之前,我确实遇到过一些人,但是没人能像你一样让我如此着迷。你不仅美丽迷人,还有强大的内心和出众的才干。自从遇见你,我已经完全忘记了过去,现在只想努力成为一个足以配得上你的男人。我相信我们的感情会越来越好,我会一直在你身边支持你,保护你。”

说到这里,男生感觉差不多了,言多必失,及时打住。看到女朋友幸福的笑容,他那颗悬着的心终于放下来了。

在这个例子中:

● 男朋友对周围环境的观察、对女朋友特点的回顾,可以看做是训练数据,使自己了解上下文和背景信息。

● 根据女朋友的特点选择合适的词汇和句子,可以类比embedding技术和文本生成概率,比如要避免提及数字、选择表扬她的词汇等。

● 在整个回答过程中,要考虑到女朋友的各种特点,这些特点可以看作是海量的参数。

● 男朋友心里反复对上下文进行加权处理,还动用了语气加重和微表情这样的秘密武器,确保了自己的回答内容合理又贴切。这个过程就是ChatGPT里面采用的Transformer模型和self-attention机制。

● 他见好就收,就是LLM里面输出的最后一个END标识。

● 而最后女朋友幸福的笑容,是对男朋友回答的认可和极大的鼓励,这就是ChatGPT中RLHF技术(Reinforcement Learning from Human Feedback)

如果这个男朋友训练数据不够(对女朋友不了解)或者参数不够(考虑不周),那他的回答很难通过图灵测试(女友测试)。

二、Finetuning & Prompting

人们对大语言模型有两种不同的期待,专才和通才。两种不同的期待对应两种不同的技术,Finetune和prompt。

● Finetune(微调)是指在预训练模型的基础上,通过在特定任务的数据集上进行额外训练,以调整模型参数,使模型更好地适应该特定任务。Fine-tuning的过程使得模型能够从领域相关的数据中学习新的知识和特征,从而提高模型在特定任务上的性能。

● Prompt(提示)是在使用AI模型时给出的一个明确的指示、问题或输入,用于引导模型生成特定的输出。Prompt可以看作是与AI模型的一种交互方式,通过提供充分的上下文信息以及明确的问题或任务描述,引导模型生成满足用户需求的回答。在这个过程中,模型的参数保持不变,而是根据输入的提示来生成相应的输出。

总结来说,Finetune是对AI模型进行特定任务训练的过程,通过调整模型参数使其更好地适应特定任务;而Prompt是在使用AI模型时给出的明确指示或输入,引导模型生成符合需求的输出。很多时候这两者共同作用于AI模型,以满足不同场景下的需求。



下面通过唱简谱的例子,来帮助我们对Finetune和prompt有个大概的认识。

我们有两位学生,A和C,他们都拿到了一份歌曲的简谱。

1. A已经接受过丰富的音乐训练,具备了很高的音乐造诣。当A拿到简谱时,他迅速了解到这是一首适合用美声唱法来唱的民乐,于是庄严的站定,酝酿一下情绪,为众人献上了一场视听盛宴。这里的A可以看作是经过Finetune的AI模型,他已经在领域数据和参数调整的基础上接受过训练,具备了很高的音乐素养和能力。

2. C在音乐方面没有太多的训练,仅具备基本的学习能力。当C拿到简谱时,他直接读了起来:"三、杠、二、杠、一、五、杠、六、杠、七...",这让现场陷入尴尬。旁边的朋友马上给他做了一个简单的说明,告诉他简谱中的1、2、3应该读作"哆、来、咪";谱子上的横线叫减时线,表示该音减少一半时值,减时线越多,音就越短。。。。。然后朋友试着给他唱了第一段做演示。朋友的耐心讲解加上C学习能力很强,C能立刻领会其中精要,也唱出了这首曲子。在这个过程中,朋友给C的讲解可看作是给一个未经过Finetune的AI模型的一个prompt。

FineTune是一个很重的工作,需要大量的训练量,很多时候代价高昂且不现实。于是工程师们想出了各种efficient-tuning methods,比如LoRA、Knowledge Distillation、Weight Sparsification等,本文不展开讲解FineTune技术。

而prompt是一个通过指令来引导模型生成符合需求的输出的技术,非常轻量。而且随着模型的训练数据量、参数量、token数量增大,在非常多的“领域”,prompt得到的输出结果并不比FineTune差,甚至要优于FineTune。

三、Prompt

以下内容,大部分来自DeepLearning.AI的ChatGPT Prompt Engineering for Developers课程。课程是基于gpt-3.5-turbo版本的Open API来讲的,并非是OpenAI的webUI。区别于WebUI的主要区别在于:

1. 可以设置具体的参数,比如temperature

2. 需要自己维护对话上下文(“记忆”)

3. 可以设置多角色。webUI只能使用user的角色,但是OpenAPI可以使用user、system、assistant。

Prompting规范

prompting 核心规范就两点:

● 书写简单、明确地需求和指令(Write clear and specific instructions)

● 给模型思考的时间(Give the model time to “think”)

这跟与人聊天的沟通技巧是一致的。下面详细说明一下这两条规范

规范一:书写简单、明确地需求和指令

我们应该通过提供尽可能清晰和具体的说明来表达我们希望模型做什么。清晰地说明会引导模型触发正确的神经网络进而给出正确的回答。需要注意的是,这里说的“清晰和具体”,不代表“简短”。在很多情况下,更长的提示实际上为模型提供了更清晰的上下文,让模型的回复可以与我们真正想问的问题更相关,结果更正确。

1 使用分隔符来明确输入内容的不同部分

说明:可用的分隔符包含但不限于

```

"""

<>

<tag></tag>

:

例子:

请将下面三重引号中的内容翻译成英文:

"""

小刚对小明说:“下班后去跑步吧”

"""

输出:

Xiaogang said to Xiaoming, 'Let's go for a run after work.

2 要求明确地格式化输出

说明:gpt能够理解各种常见格式,比如json、xml、markdown等等。

例子:

请生成一个json列表,里面包含三个虚构的图书的描述,包括书名、作者、书的类型,这些都是中文。请用book_id、title、author、genre分别表示虚拟图书的各个字段。

输出:

[

{

"book_id":1,

"title":"月影之下",

"author":"艾丽西亚·布莱克伍德",

"genre":"奇幻"

},

{

"book_id":2,

"title":"庄园凶案",

"author":"本杰明·格林",

"genre":"悬疑"

},

{

"book_id":3,

"title":"混乱时代之爱",

"author":"萨曼莎·李",

"genre":"爱情"

}

]

3 让模型自己检查是否满足条件,做出分支判断

说明:

● 例子1:

下面三个双引号之间的是一段包含指令的文本。请按照下面的格式提取指令:

步骤1:...

步骤2:...

...

步骤N:...

如果文本里不包含指令语句,请直接输出“文本不包含指令语句”

"""

把大象装到冰箱很简单。先把冰箱打开,再把大象放进去,然后关上冰箱门。

"""

输出:

步骤1:把冰箱打开

步骤2:把大象放进去

步骤3:关上冰箱门

● 例子2:

下面三个双引号之间的是一段包含指令的文本。请按照下面的格式提取指令:

步骤1:...

步骤2:...

...

步骤N:...

如果文本里不包含指令语句,请直接输出“文本不包含指令语句”

"""

梯度下降(Gradient Descent)是一种用于求解机器学习和深度学习模型中损失函数最小值的优化算法。它是一种迭代算法,通过沿着损失函数的梯度方向更新模型参数,以逐步减小损失函数的值,从而找到使损失函数达到最小值的模型参数。

"""

输出:

文本不包含指令语句

4 给与少量样本/样例供模型参考(Few-shot prompting)

说明:few-shot prompting 是在LLM在正式执行任务前,给予少量成功执行任务的例子让其“参考学习”,从而获得我们预期获得的结果。

例子:

你的任务是按照下面对话的风格回答问题。

<child>: 奶奶,什么香香脆脆是我最爱

<grandparent>: 美好时光海苔

<child>: 什么让我健康快乐成长

<grandparent>: 美好时光海苔

<child>: 什么开心相伴共同分享

输出:

美好时光海苔

规范二:给模型思考的时间

有时候模型会急于得出结论而输出错误的结果,这种情况,我们需要通过一些引导,让模型先做一系列相关推理,然后再得出答案。

这就像老师在教授知识的时候,如果题目过于复杂或者是一个新题型陷阱,我们很可能犯错。在这种情况下,老师一步一步拆解问题,让我们一步一步推理去找答案,我们最终会得到一个正确的答案。

1 明确指定任务完成所需的步骤

说明:可以明确地要求LLM按步骤来完成多个任务。

例子:

执行以下操作:

1 将下面三个双引号之间的文本做一句话的摘要

2 将摘要翻译成中文

3 列出摘要中的人名,格式为 英文名:中文名

4 格式化摘要,输出一段json文本,文本包含的key包括:chinese_summary, english_names, chinese_names

每个回答之间用换行来分割

文本内容:

"""

In a charming village, siblings Jack and Jill set out on a quest to fetch water from a hilltop well. As they climbed, singing joyfully, misfortune struck—Jack tripped on a stone and tumbled down the hill, with Jill following suit. Though slightly battered, the pair returned home to comforting embraces. Despite the mishap, their adventurous spirits remained undimmed, and they continued exploring with delight.

"""

输出:

1. Jack and Jill went to fetch water from a well on a hill, but Jack tripped and fell down the hill with Jill following, but they still remained adventurous.

2. Jack和Jill前往山顶的一个井取水,但Jack绊倒了,滚下了山坡,Jill紧随其后,尽管有点磨损,但他们仍然有冒险精神。

3. Jack:杰克,Jill:吉尔

4. { "chinese_summary": "Jack和Jill前往山顶的一个井取水,但Jack绊倒了,滚下了山坡,Jill紧随其后,尽管有点磨损,但他们仍然有冒险精神。", "english_names": ["Jack", "Jill"], "chinese_names": ["杰克", "吉尔"] }

2 让模型在匆忙得出答案之前,先自己找出解决方案

说明:参考Chain-of-thought (CoT)

反例:

三人三天喝三桶水,六人六天喝几桶水?

输出:

答案是6桶水。

正例1(不推荐,正例2解法更简单):

你的任务是检查学生的解法是否正确。

按照下面的步骤完成工作:

1 先自己做一遍题得出答案

2 对比自己的答案和学生的答案看看学生的答案是否做对。在你自己解出题之前,别轻易地直接得出“正确”这个结论



用下面的格式:

问题:"""问题"""

学生的解法:"""学生的解法"""

正确的解法:"""你的解题步骤和答案"""

输出学生解法的结果:正确/错误



问题:"""3个人3天喝3桶水,6个人6天喝几桶水?"""

学生的解法:"""

因为3个人3天喝3桶水,所以3个人1天喝1桶水

因为3个人1天喝1桶水,所以6个人6天喝6桶水

答:6桶水

"""

正确的解法:

输出:

问题:"""3个人3天喝3桶水,6个人6天喝几桶水?"""

学生的解法:"""

因为3个人3天喝3桶水,所以3个人1天喝1桶水

因为3个人1天喝1桶水,所以6个人6天喝6桶水

答:6桶水

"""

正确的解法:"

因为3个人3天喝3桶水,所以3个人1天喝1桶水。

因为3个人1天喝1桶水,所以6个人1天喝2桶水。

因为6个人1天喝2桶水,所以6个人6天喝12桶水。

答:12桶水"

输出学生解法的结果:错误

这种需要推理和思考才能得到正确答案的问题,有一个万能咒语:“请step by step的思考后得出答案”

正例2:

3个人3天喝3桶水,6个人6天喝几桶水?请step by step的思考后得出答案

输出(ChatGPT4)

步骤1:计算3个人1天喝多少桶水

3个人3天喝3桶水,所以3个人1天喝1桶水(3桶水/3天=1桶水/天)

步骤2:计算6个人1天喝多少桶水

3个人1天喝1桶水,那么6个人1天需要喝2倍的水,即6个人1天喝2桶水(1桶水/天*2=2桶水/天)

步骤3:计算6个人6天喝多少桶水

6个人1天喝2桶水,所以6个人6天喝12桶水(2桶水/天*6天=12桶水)

答:6个人6天喝12桶水。

说明:ChatGPT3.5还是无法得出正确答案,经过修改后,答案也是很不“稳定”

首先,可以得出一个比例关系:3个人3天喝3桶水,可以转化为1个人1天喝1桶水的量,即1人1天喝1桶水。这是因为:

3个人3天喝的水量 = 3桶

1个人1天喝的水量 = 3桶 ÷ 3人 ÷ 3天 = 1桶/人/天

因此,6个人6天喝的水量可以根据比例关系计算得出:

6个人6天喝的水量 = (6人 × 6天) ÷ (3人 × 3天) × 3桶

= 36 ÷ 9 × 3

= 12桶

因此,6个人6天喝12桶水。

prompt例子

1 总结和信息提取

一则电商网站的评论:

我为女儿的生日买了这个熊猫毛绒玩具,她非常喜欢,走到哪都带着。它又软又可爱,它的脸看起来很友好。不过,相对于我花的钱来说,它有点小。我认为同样价格可以买到更大的。它比预期提前一天到达,所以我在送给她之前自己也玩了一下。

1.1 限制文字/句子长度的总结

你的任务是对一篇从电商网站获得的评论进行简短总结。 请对以下评论内容进行总结。要求在30个中文汉字以内,并直接输出总结内容:

熊猫毛绒玩具软可爱,女儿喜欢,但有点小,价格不太划算。提前一天到达。

1.2 特定维度的句子总结:物流

你的任务是对一篇从电商网站获得的评论进行简短总结,以便向运输部门提供反馈。 请对以下评论内容进行总结,要求在30个中文汉字以内,重点关注其中提到的物流信息,并且直接输出总结内容:

物流提前一天到达,玩具偏小,价格不太划算。

1.3 特定维度的句子总结:价格

你的任务是对一篇从电商网站获得的评论进行简短总结,以便向定价部门提供反馈,提供价格调整建议。 请对以下评论内容进行总结,要求在30个中文汉字以内,重点关注其中提到的价格和价值感知方面的信息,并且直接输出总结内容:

这个熊猫毛绒玩具很受女孩子欢迎,软可爱,送货速度快。但相对于价格来说,它有点小,价值感受不够。

1.4 “信息提取”代替“总结”

你的任务是从电子商务网站的产品评论中提取相关信息,以向物流部门提供反馈。请对以下评论进行物流相关信息的提取。要求在30个字以内:

提前一天到达。

推理

产出打标、分类、观点等

传统Machine Learning Workflow,做这些事情需要获取相当量的数据,进行人工打标、训练模型、部署,然后才能进行推理。

而LLM,只通过Prompt就能“教会”LLM做推断



一则电商评论:

我需要一盏漂亮的卧室灯,这款灯还带有额外的储物功能,价格也不算太高。我很快就收到了它。在运输过程中,它的灯绳断了,但公司很乐意寄来了一个新的。几天后就到了。它很容易组装。安装过程发现缺少一个零件,所以我联系了他们的客服,他们很快就给我寄来了缺失的零件!Lumina对客户和产品都非常关心,给我留下了很好的印象!

情感推论 (积极/消极)

Q:

下面的产品评论的情感是什么?

A:

积极的情感。

Q:

下面的产品评论的情感是什么?积极地还是消极的?

A:

积极的

情感词识别

Q:

请列出以下评论中与作者感情有关的5个词,词之间用应用逗号分割

A:

关心, 喜欢, 感动, 满意, 印象深刻

识别愤怒

Q:

以下评论的作者是否有发火?请回答是或者不是

A:

从评论中提取产品属性

Q:

请从评论文本中识别以下项目:

A: 

- 评论者购买的物品

- 制造该物品的公司

- 公司所在国家

Q:

评论使用三个反引号进行分隔。将您的响应格式化为JSON对象,其中“Item”和“Brand”、“country”为键。

如果信息不存在,请使用“unknown”作为值。

A:

{ "Item": "卧室灯", "Brand": "Lumina", "country": "unknown" }

话题推理

Q: 

假设你是一名中国国学老师,请用白话文翻译下面的古文,并提取出八个代表作者主张/观点的标题。

要求输出格式如下:

白话文翻译:<翻译后的白话文>

八段标题:

1. xxx

2. xxx

3. xxx

...

古文内容:'''

民既富于下, 君自富于上。盖君之富, 藏于民者也; 民既富矣, 君岂有独贫之理哉? 有若深言君民一体之意以告哀公。盖谓: 公之加赋, 以用之不足也; 欲足其用, 盍先足其民乎? 诚能百亩而彻, 恒存节用爱人之心, 什一而征, 不为厉民自养之计, 则民力所出, 不困于征求; 民财所有, 不尽于聚敛。闾阎之内, 乃积乃仓, 而所谓仰事俯育者, 无忧矣!田野之内, 如茨如梁, 而所谓养生送死者, 无憾矣。百姓既足, 君何为而独贫乎? 吾知藏诸闾阎者, 君皆得而有之, 不必归之府库, 而后为吾财也。蓄诸田野者, 君皆得而用之, 不必积之仓廪, 而后为吾有也。取之无穷, 何忧乎有求而不得? 用之不竭, 何患乎有事而无备? 牺牲粢盛, 足以为祭祀之供, 玉帛筐篚,足以资朝聘之费。借曰不足, 百姓自有以给之也, 其孰与不足乎?饔飧牢醴, 足以供宾客之需, 车马器械,足以备征伐之用。借曰不足, 百姓自有以应之也, 又孰与不足乎? 吁! 彻法之立, 本以为民, 而国用之足,乃由于此, 何必加赋以求富哉。

'''

白话文翻译:民众已经富裕,君主也应该富有。因为君主的财富是来自于民众,民众已经富有,君主怎么会独自贫穷呢?这是一番深刻的话,表达了君民一体的思想,向哀公提出了建议。建议说,如果想要增加国家的财政收入,为什么不先让民众富裕起来呢?只要能够合理利用土地,保持勤俭节约的精神,征收适当的税收,而不是过度压榨民众,那么民众的力量就不会因为征税而疲惫不堪,财富也不会因为聚敛而枯竭。在城乡之间,可以建立仓库,保证粮食的储备,这样就不用担心会出现饥荒。在田野之间,可以种植各种作物,保证人们的生活所需,这样就不用担心会出现匮乏。当百姓富足了,君主怎么会独自贫穷呢?我知道,君主们都有藏在城乡之间的财富,不需要把它们归入国库,这些财富就是我们的。君主们也都有田地,不需要把粮食储存在仓库里,这些粮食也是我们的。这些财富和粮食是取之不尽的,不需要担心会出现短缺。在祭祀和朝贡方面,只需要提供一些牲畜和粮食就可以了,如果不够,百姓们也会自己提供。在宴会和征战方面,只需要提供一些车马和器械就可以了,如果不够,百姓们也会自己提供。呼吁大家,制定法律的初衷是为了民众,国家的财政收入不应该通过过度征税来实现。

A: 

八段标题:

1.君民一体的思想

2.建议先让民众富裕起来

3.合理利用土地

4.保持勤俭节约的精神

5.征收适当的税收

6.建立仓库,保证粮食的储备

7.种植各种作物,保证人们的生活所需

8.国家的财政收入不应该通过过度征税来实现

特定话题识别

Q: 

请判断以下主题是否在文中出现。出现用1表示,没出现用0表示。

返回格式:

<主题>: 0

<主题>: 1

...



主题列表:君民一体的思想, 不应过度征税, 大力发展文化产业, 合理利用土地, 发展海洋牧业

文章内容:'''

民既富于下, 君自富于上。盖君之富, 藏于民者也; 民既富矣, 君岂有独贫之理哉? 有若深言君民一体之意以告哀公。盖谓: 公之加赋, 以用之不足也; 欲足其用, 盍先足其民乎? 诚能百亩而彻, 恒存节用爱人之心, 什一而征, 不为厉民自养之计, 则民力所出, 不困于征求; 民财所有, 不尽于聚敛。闾阎之内, 乃积乃仓, 而所谓仰事俯育者, 无忧矣!田野之内, 如茨如梁, 而所谓养生送死者, 无憾矣。百姓既足, 君何为而独贫乎? 吾知藏诸闾阎者, 君皆得而有之, 不必归之府库, 而后为吾财也。蓄诸田野者, 君皆得而用之, 不必积之仓廪, 而后为吾有也。取之无穷, 何忧乎有求而不得? 用之不竭, 何患乎有事而无备? 牺牲粢盛, 足以为祭祀之供, 玉帛筐篚,足以资朝聘之费。借曰不足, 百姓自有以给之也, 其孰与不足乎?饔飧牢醴, 足以供宾客之需, 车马器械,足以备征伐之用。借曰不足, 百姓自有以应之也, 又孰与不足乎? 吁! 彻法之立, 本以为民, 而国用之足,乃由于此, 何必加赋以求富哉。

'''

A: 

君民一体的思想: 1

不应过度征税: 1

大力发展文化产业: 0

合理利用土地: 1

发展海洋牧业: 0

变换

翻译

例子1:

Translate the following English text to Spanish: \

```Hi, I would like to order a blender```

你好,我想订购一个搅拌机。

例子2:

下面这段文字用的是什么语言:

```Combien coûte le lampadaire?```

这段文字使用的是法语。

例子3:

Translate the following text to Chinese and Spanish

and English pirate: \

```I want to order a basketball```

Chinese: 我想订购一个篮球 (Wǒ xiǎng dìnggòu yīgè lánqiú)

Spanish: Quiero pedir una pelota de baloncesto

English: I want to order a basketball

例子4:

Translate the following text to Chinese in both the \

formal and Sichuanese forms:

'It's very comfortable!'

Formal Chinese: "非常舒适!" (Fēicháng shūshì!)

Sichuanese: "好舒坦哦!" (Hǎo shūtǎn ó!)

语气转换

将下面的白话翻译成商务信函:

'你不要骗我,我也写过程序好吧,明明一天就能搞定,你需要开发3天?'

尊敬的先生/女士,

我希望您能对以下事项进行澄清。

我个人也有编写程序的经验,根据我的经验,这个任务明明只需要一天的时间就能完成。

我很惊讶您需要三天的开发时间。请您解释一下这个时间差异的原因,以便我们能够更好地理解和协调。

谢谢您的合作。

此致,

[您的名字]

格式转换

将以下json转换成带有列头的html:

"""

{ "resturant employees" :[

{"name":"Shyam", "email":"shyamjaiswal@gmail.com"},

{"name":"Bob", "email":"bob32@gmail.com"},

{"name":"Jai", "email":"jai87@gmail.com"}

]}

"""

<!DOCTYPE html>

<html>

<head>

<style>

table {

font-family: arial, sans-serif;

border-collapse: collapse;

width: 100%;

}

td, th {

border: 1px solid #dddddd;

text-align: left;

padding: 8px;

}

tr:nth-child(even) {

background-color: #dddddd;

}

</style>

</head>

<body>

<h2>Restaurant Employees</h2>

<table>

<tr>

<th>Name</th>

<th>Email</th>

</tr>

<tr>

<td>Shyam</td>

<td>shyamjaiswal@gmail.com</td>

</tr>

<tr>

<td>Bob</td>

<td>bob32@gmail.com</td>

</tr>

<tr>

<td>Jai</td>

<td>jai87@gmail.com</td>

</tr>

</table>

</body>

</html>

拼写/语法检查

例子1:

校对下面的语句,如果有错误,请订正后输出正确的语句,没错误请输出“没错误”

```研表究明,汉字序顺并不定一影阅响读```

研究表明,汉字顺序并不一定影响阅读。

例子2:

校对下面的语句,如果有错误,请订正后输出正确的语句,没错误请输出“没错误”

```The girl with tha black and white puppies have a ball.```

The girl with the black and white puppies has a ball.

扩展/详述

扩展/详述用于给定较短的文本让LLM生成较长文本的用法。比如给定一组说明或主题列表,让LLM生成相关内容的较长文本。

定制对客户的电子邮件自动回复

例子1:

你是一名客服AI助手。

你的任务是给一位重要的客户发送一封电子邮件回复。

根据以``````分隔的客户电子邮件内容,生成一封感谢客户评论的回复。

如果情感是积极或中性的,请感谢他们的评论。

如果情感是消极的,请道歉并建议他们可以联系客户服务,电话是400xxxxx。

以简洁和专业的语气写信。

以`AI客户代理`的身份签署电子邮件。



客户评价```

他们在11月份仍然以约49美元的价格销售17件套装,大概5折,但由于某种原因(可以称之为价格欺诈),到了12月的第二周,同样的套装价格都上涨到了70-89美元左右。11件套装的价格也比之前的29美元上涨了约10美元。

价格上涨也就罢了,但如果你看底座,刀片锁定的部分,看起来不如几年前的早期版本好。我不得不仔细地使用它。例如:我先在搅拌机中将豆子、冰块、大米等硬物搅碎制成我想要的份量,然后切换到打蛋器刀片制作更细的面粉;制作冰沙时先使用交叉切割刀片,然后如果需要更细/不那么纤维状,再使用平刀片。

制作冰沙时的一个小技巧是,将水果和蔬菜切碎并冷冻(如果使用菠菜,需要稍微炖软菠菜,然后冷冻起来,使用时再拿出来放到一个小到中号的加工机中),这样你就可以避免添加在制作冰沙时冰块用的太多。

大约一年后,电机发出奇怪的声音。我打电话给客服,但保修期已经过期了,所以我不得不再买一个。

顺便说一下:这类产品的整体质量已经下降了,所以他们有点靠品牌认可和消费者忠诚度来维持现在的销售。

大约两天后收到的货物。

```

情感:消极的

主题:为您近期的购买经历致以诚挚歉意及解决方案

尊敬的客户,

感谢您抽出宝贵时间就我们的17件套装和其他产品提供反馈。对于您遇到的价格上涨和质量变化等问题,我们深感抱歉。我们理解这些变化没有满足您的期望。

很遗憾听闻您在使用一年后遇到了电机发出奇怪声音的问题。关于保修期已过,导致您不得不购买替换产品,我们向您道歉。我们非常感谢您对我们品牌的忠诚度,并希望能够弥补您的遗憾。

请允许我们帮助解决您的问题。我们建议您联系我们的客户服务团队,他们可能会为您提供更进一步的协助或提供其他解决方案。您可以通过400xxxxx与他们取得联系。

最后,对于给您带来的不便,我们再次表示歉意,并感谢您提供宝贵的反馈,这将帮助我们改进产品和服务。

此致,

AI客户代理

例子2:

你是一名客服AI助手。

你的任务是给一位重要的客户发送一封电子邮件回复。

根据以``````分隔的客户电子邮件内容,生成一封感谢客户评论的回复。

如果情感是积极或中性的,请感谢他们的评论。

如果情感是消极的,请道歉并建议他们可以联系客户服务,电话是400xxxxx。

请确保在回复中引用一些客户的评论细节。

以简洁和专业的语气写信。

以`AI客户代理`的身份签署电子邮件。



客户评价```

他们在11月份仍然以约49美元的价格销售17件套装,大概5折,但由于某种原因(可以称之为价格欺诈),到了12月的第二周,同样的套装价格都上涨到了70-89美元左右。11件套装的价格也比之前的29美元上涨了约10美元。

价格上涨也就罢了,但如果你看底座,刀片锁定的部分,看起来不如几年前的早期版本好。我不得不仔细地使用它。例如:我先在搅拌机中将豆子、冰块、大米等硬物搅碎制成我想要的份量,然后切换到打蛋器刀片制作更细的面粉;制作冰沙时先使用交叉切割刀片,然后如果需要更细/不那么纤维状,再使用平刀片。

制作冰沙时的一个小技巧是,将水果和蔬菜切碎并冷冻(如果使用菠菜,需要稍微炖软菠菜,然后冷冻起来,使用时再拿出来放到一个小到中号的加工机中),这样你就可以避免添加在制作冰沙时冰块用的太多。

大约一年后,电机发出奇怪的声音。我打电话给客服,但保修期已经过期了,所以我不得不再买一个。

顺便说一下:这类产品的整体质量已经下降了,所以他们有点靠品牌认可和消费者忠诚度来维持现在的销售。

大约两天后收到的货物。

```

情感:消极的

主题:为您近期的购买经历致以诚挚歉意及解决方案

尊敬的客户,

感谢您抽出宝贵时间就我们的17件套装和其他产品提供反馈。对于您遇到的价格上涨和质量变化等问题,我们深感抱歉。我们理解这些变化没有满足您的期望,例如刀片锁定部分的质量下降和电机在一年后出现的问题。

很遗憾听闻您在使用一年后遇到了电机发出奇怪声音的问题。关于保修期已过,导致您不得不购买替换产品,我们向您道歉。我们非常感谢您对我们品牌的忠诚度,并希望能够弥补您的遗憾。

请允许我们帮助解决您的问题。我们建议您联系我们的客户服务团队,他们可能会为您提供更进一步的协助或提供其他解决方案。您可以通过400xxxxx与他们取得联系。

最后,对于给您带来的不便,我们再次表示歉意,并感谢您提供宝贵的反馈,这将帮助我们改进产品和服务。

此致,

AI客户代理

四、LLM与《异形》

最近重温了《普罗米修斯》以及《异形》系列五部电影,观影过程中,不由自主地把电影中各代仿生人的行为与大型语言模型(LLM)的调教技术联系了起来。电影中的仿生人大脑,它们实质上就是一种高度发达的语言模型,根据不同的任务需求进行调教,这导致了它们独特的行为特点,也是推动整个系列剧情发展的关键因素。

在电影系列中,五个仿生人按照迭代顺序应该是:David、Walter、Ash、Bishop、Call。每个型号在设计时都有特定的工作目标和任务,这决定了它们的核心行为和调教方式。



David(普罗米修斯)

David 是这个电影系列中的初代仿生人。他在人类船员冬眠期间负责维持飞船运行,并照顾船员们。除此之外,他还有一个特殊的任务——协助公司高层寻找人类的起源。因此,David 的调教侧重于培养好奇心和自我意识。他被设定为一个充满探索欲的科学官员,具备广泛的知识,从生物学研究到考古学调查,再到与外星文明的交流。在LLM调教中,为了支持他的探索性任务,需要为模型提供丰富的知识库和自主搜索信息的能力。他的temperature参数设置应该非常高,用于鼓励创新和自由思考。



Walter(异形:契约)

Walter 由 Weyland-Yutani Corporation 设计制造,主要承担航天飞船维护、确保机组成员健康和协助科学研究等任务。与 David 不同,Walter 的设计初衷是为了更好地服务并保护人类,同时避免出现像 David 那样的独立意识和行动。因此,Walter 行事程序化、冷静,始终遵命行事,注重维护船员福祉。他的创新能力被有意限制,例如在被David要求即兴演奏音乐时,Walter 无法完成。Walter大脑LLM 的应用将强调对程序性知识理解、执行和实时问题解决的能力,以及对标准操作程序的忠实遵循。他的temperature参数设置可能较低,以保证输出的一致性和可靠性。



Ash(异形)

Ash 在《异形》中担任科学官,最终被揭露出有着额外的秘密使命——确保外星生物样本安全返回。他展现了极强的自我意识,忠诚于公司的特殊命令937,即使这意味着牺牲船员生命以保护异形样本。因此,与 Ash 相关的 LLM 需要涵盖策略性思维和复杂决策能力,并且在道德和安全问题上经过精密的调教,以确保行为与公司设定的框架一致。Ash 的 LLM temperature可能设置为中等,保持一定的随机性和自由度。



Bishop(异形2)

Bishop 是由 Weyland-Yutani Corporation 制造的先进型仿生人,比如 Ash 更加人性化和技术精进。他被派遣至 LV-426 卫星,协助海军陆战队员调查失联的殖民地 Hadley's Hope。Bishop 的工作包括提供技术支持和维护、医疗援助、研究分析和数据管理。与 Ash 相比,Bishop 展现出更为先进的人机交互特征和人类忠诚,反映出技术和伦理的进步。LLM 的调教重点在于增强服务能力和响应人类需求。Bishop 的行为稳定且一致,符合他的服务型角色,相应的temperature设置可能相对较低。



Call(异形:复活)

Call 是一个与制造她的公司对立的地下组织成员。她的目标不是服务或保护人类船员,而是阻止不道德和危险的生物实验。Call 展现出高度的自主意识和道德责任感,这与其他仿生人的设计初衷大相径庭。她在电影中的身份在很长一段时间内都是秘密的,直到后来才揭露出来。Call 的 LLM 调教要求模型展现出独立判断力和创新能力,并遵循基本伦理准则。她的temperature可能较高,以支持她的反叛和独立特点。随着 LLM 技术的演进,这种调教可能已经超出了单一参数的控制范畴。



根据不同仿生人的角色和职责,LLM 的调教确实与任务紧密相关。David 需要推动探索和创造力,Walter 更倾向于遵循规则和程序。Ash 的 LLM 需要更复杂的策略和判断力,而 Bishop 的 LLM 更注重服务性和人性化。最终,Call 的 LLM 要展现自主性和伦理判断力。每个仿生人特定的工作内容对 LLM 的训练和调教提出了独特的要求,以确保它们在特定场景下最佳地发挥作用。



随着 LLM 技术的不断进化,它在人工智能领域的应用变得更为深远和灵活。LLM 能够模拟人类的思维模式,甚至超越人类的认知极限,赋予机器前所未有的智慧。这样的进步既带来技术挑战,也引发伦理议题,我们需要审慎地平衡创新与社会价值。通过精心的调教和持续的完善,LLM 将引领我们进入一个与人工智能密切相连的未来。(这一段是GPT4给我总结的...)

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值