只要不是逐字完全一样,那么大模型选字的概率就会发生变化,于是回答就会不一样。
比如「你叫什么名字?」「你的名字是什么」「告诉我你的名字」「你的名字?」都是同样的问题,但不逐字相同,就会有不同的回答。
但因为「你」和「名字」这两个核心关键词始终都在,对概率施加一致的影响,所以能基本确保回答只是字面不同,意思都一样。不会把「ChatGPT」回答成「ChatGLM」。
可是,在使用 ChatGPT 等时会发现,逐字完全一样的问题,也未必能得到逐字完全一样的答案。如果是很复杂的问题,输出很长,甚至答案的内核都会发生变化。这又是为什么呢?
把 AI 当人看。我们人也做不到两次回答同样问题,都一字不差吧?也会边答边思考,在中间不断修正自己的观点,从而让答案内核发生变化吧?我们的这种随机性,是因为我们获得的输入并不只是纯纯的文字,还包括视觉、听觉接收的信息,环境的温度湿度,以及当时的心情、身体状态等等。这些都会影响输出。但 AI 获得的输入就是文字,没有七情六欲、身体状况等干扰,所以是可以保持严格稳定输出的。但这样就不像人了。也太机械了,导致创意不足。所以 AI 的建造者设计了一个参数叫 temperature,就是温度。
可以这么理解:温度越高,AI 思维约活跃,回答越发散;温度越低,AI 越冷静,回答越刻板。当温度为 0 时,AI 的脑子就被冻住了,回答就几乎不变了。
比如我用不同的 temperature 问 GPT-3.5 「一句话介绍鲁迅是谁」。
温度 0,每次都回答「鲁迅是中国现代文学的重要作家和思想家。」
温度 0.7,每次回答就都不一样了。列举几种:
* 鲁迅,中国现代文学大师,思想家和革命先驱。
* 鲁迅是中国现代文学的巨匠,思想家和革命家。
* 鲁迅是中国现代文学史上具有重要影响的作家和思想家。
* 鲁迅是中国现代文学的开拓者和一位重要的思想家。
* 鲁迅(原名周树人),中国现代作家、思想家,文学革命先驱之一。
温度 2,Ta 有时能正常回答,但更多时候会像喝醉了一样,输出类似下面的文字:
20世纪中国的杂文大师和个监

最低0.47元/天 解锁文章
2023

被折叠的 条评论
为什么被折叠?



