第二课堂 学习笔记四

大模型原理与应用

大型语言模型(LLM)的概念:

1.LLM定义与特点
处理海量文本,多者可具备数百亿参数,理解语言深度,展现涌现能力。
2.模型大小与性能关系
与小模型架构相似,但参数量级提升带来解决复杂任务的显著优势。

3.LLM国内外代表
国外有GPT系列、LLaMA等,国内有文心一言、通义千问等,均表现强大。
4.LLM应用示例
ChatGPT是LLM的对话应用典范,展示出与人类流畅自然的交互能力。

常见的 LLM 模型
闭源LLM特性简介
OpenAl的GPT模型包括ChatGPT和GPT-4,是强大的生成式预训练语模型,用于对话和复杂任务解决。GPT-4的规模超过GPT-3,性能大幅提升,支持多模态输入。ChatGPT则展示了卓越的会话能力,可扩展并支持插件。

LLM的能力:LM具有上下文学习、指令遵循和逐步推理等能力,使其成为解决复杂问题和应用于多领域的强大工具。
基座模型是预训练的AI技术范式通过大模型统一处理多任务,提升研发效率,减少人力,增强应
用效果。
ChatGPT推动了对话式AI发展,大型语言模型让聊天机器人重获关注,预示未来智能体应用新趋
势。

LM 的特点
大语言模型特点概述
规模巨大,参数量可达数十亿至数干亿,能捕获复杂语言结构
预训练与微调机制
先在大规模无标签数据上预训练再通过有标签数据微调适应特定任务


上下文感知能力
能理解和生成依赖上下文的内容擅长对话、文章生成。

上面是知识点部分,下面是自己部署的大语言模型,采用了千问2

第二部分:stable diffusion图像生成方法

Stable Diffusion概述
Stable Diffusion是一种基于深度学习的文本到图像的生成模型。

主要组成部分
文本编码器
将文本输入转换为向量表示以便于模型理解和生成图像。

图像解码器
将向量表示转换为图像,生成具有特定风格的图像。
噪声预测器
预测图像中的噪声,以便于模型在生成过程中更好地控制图像的质量和细节。

易于优化与多样性控制
优化方法
Stable Diffusion模型采用了一种高效的优化方法,使得模型在训练过程中能够快速收敛,从而提高了模型的生成效果

多样性控制
Stable Diffusion模型通过控制模型的参数,可以实现对生成图像的多样性控制,使得模型能够生成多样化的图像。
参数调整
Stable Diffusion模型提供了丰富的参数调整选项,用户可以根据自己的需求调整模型的参数,从而实现对生成图像的个性化控制。

样本多样性牺牲
模型训练数据不足
Stable Diffusion模型在训练过程中,如果使用的数据样本不够多样化,可能会导致生成的图像缺乏多样性。
模型参数设置不当
在训练Stable Diffusion模型时,如果参数设置不当,可能会导致模型过度拟合训练数据,从而降低生成的图像的多样性。
模型结构设计问题
Stable Diffusion模型的结构设计可能会影响其生成图像的多样性。如果模型结构过于简单或复杂,可能会导致生成的图像缺乏多样性。

下面是在驱动云上面构建的成果展示

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值