参考书目:ChatGPT原理与应用开发
图灵测试提供了一个客观和直观的方式来评估机器是否具有智能的方法。
自然语言处理(Natural Language Processing,NLP)
研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法
词袋模型(Bag of Words,BOW):单词+单词出现次数
神经概率语言模型(Neural Probabilistic Language Model,NPLM):通过学习大量的文本数据来预测下一个单词或字符的概率
LM(Language Model)语言模型:利用自然语言构建的模型
Ngram语言模型:把一句话切成一个个词,然后统计概率。
Ngram模型有个致命缺陷——它的表示是离散的
Transformer
先把输入映射到Encoder
根据历史Token以及Encoder的Token表示进行建模解码
NLU(Natural Language Understanding,自然语言理解)任务:句子级别分类
NLG(Natural Language Generation,自然语言生成)任务:生成,文本摘要、机器翻译、改写纠错等
Transformer这个架构基于Seq2Seq,可以同时处理NLU和NLG任务
GPT,Generative Pre-trained Transformer
Token by Token生成文本
Zero-Shot是指直接给模型任务输入让它输出任务结果
Few-Shot是给模型提供一些示例,然后再给出任务,让它给出输出结果
RLHF,Reinforcement Learning from Human Feedback
Step1:SFT,Supervised Fine-Tuning,有监督微调。
Step2:RM,Reward Model,奖励模型。
Step3:RL,Reinforcement Learning,强化学习。
LLM(Large Language Model)