Transformer
Transformer:大语言模型的核心模块
Transformer的核心是注意力机制:通过注意力机制,Transformer能够聚焦于输入序列中的重要部分,类似于人类阅读时关注关键词。
Transformer模型通过将输入序列分解为一个个独立的token(token是模型处理和理解自然语言的基本单元。这些模型通常无法直接处理原始文本数据,而是将文本转换为一系列的token,以便于模型进行学习和处理。token可以是单词、子词或字符等,具体取决于模型的设计和训练方式)并分别对每个token应用注意力机制,从而能够并行处理整个序列,实现高效且精确的输出。
LLM的特点
大语言模型特点概述:规模巨大,参数量可达数十亿至数千亿,能捕获复杂语言结构
预训练与微调机制:先在大规模无标签数据上预训练,再通过有标签数据微调适应特定任务
上下文感知能力:能里解和生成依赖上下文的内容,擅长对话、文章生成和情境理解
Stable Diffusion
是一种基于深度学习的文本到图像的生成模型
Stable Diffusion的主要组成部分
①文本编码器:将文本输入转换为向量表示,以便于模型理解和生成图像。
②图像解码器:将向量表示转换为图像,生成具有特定风格的图像。
③噪声预测器:预测图像中的噪声,以便于模型在生成过程中更好地控制图像的质量和细节。