大型语言模型(LLM)
GPT,文心一言等都属于大语言模型
核心是注意力机制,Transformer能够聚焦于输入序列中的重要部分,类似于人类阅读时关注关键词。
Transformer模型通过输入序列分解为一个个独立的token(例如单词或字符),并分别对每个token应用注意力机制,从而能够并行处理整个序列,实现高效且精准的输出。
特点:规模巨大,能捕获复杂语言结构,有上下文感知能力:支持多语言与多模态,存在潜在的伦理和风险,高计算资源的需求
应用:自然语言处理的革新,改进信息检索,探索通用人工智能
影响:技术影响,伦理与社会问题
Stable Diffusion图像生成方法
主要组成部分:文本编码器,图像解码器,噪声预测器
优势:模型稳定性(不易崩溃异常),训练速度,易于优化与多样性控制,有广泛应用前景
缺点:模型训练数据不足,模型参数设置不当,模型结构设计问题,生成样本成本较高,时间较长