LLM运行web_demo后的参数详解
Tempreature
Temperature 是一个超参数,可用于控制生成语言模型中生成文本的随机性和创造性。它用于调整模型的softmax输出层中预测词的概率。温度参数定义为在应用 softmax 函数之前用于调整 logits 的比例因子的倒数。
当Temperature 设置为较低的值时,预测词的概率会变尖锐,这意味着选择最有可能的词的概率更高。这会产生更保守和可预测的文本,因为模型不太可能生成意想不到或不寻常的词。另一方面,当Temperature 设置为较高值时,预测词的概率被拉平,这意味着所有词被选择的可能性更大。这会产生更有创意和多样化的文本,因为模型更有可能生成不寻常或意想不到的词。
Temperature参数通常设置为 0.1 到 1.0 之间的值,具体取决于生成文本中所需的随机性和创造性水平。温度值为 1.0 对应于标准 softmax 函数,其中预测词的概率未按比例缩放。
Temperature 参数主要与采样策略有关。在基于概率的采样过程中,Temperature 参数用于调整模型输出的多样性。具体来说,Temperature 是一个正数,用于平滑模型输出的概率分布。Temperature 参数通过以下公式应用于模型的原始概率分布:
P’(x) = P(x)^(1/T)
其中 P(x) 是模型为单词 x 分配的原始概率,P’(x) 是经过 Temperature 调整后的概率。可以看到,当 Temperature 增大时,原始概率分布会变得更加平坦,各个单词的概率相对更加接近。反之,当 Temperature 减小时,概率分布会变得更加陡峭,使得具有较高概率的单词更有可能被选中。
Top P
Top P 参数是指在生成文本等任务中,选择可能性最高的前 P 个词的概率累加和。这个参数被称为 Top P,也称为 Nucleus Sampling。
例如,如果将 Top P 参数设置为 0.7,那么模型会选择可能性排名超过 70% 的词进行采样。这样可以保证生成的文本准确性较高,但可能会缺乏多样性。相反,如果将 Top P 参数设置为 0.3,则会选择可能性超过 30% 的词进行采样,这可能会导致生成文本的准确性下降,但能够更好地增加多样性。
Maximum length
通常用于限制输入序列的最大长度