准备工作:
点击链接 https://growthdata.virtaicloud.com/t/NA 注册云算力平台
一.大语言模型(LLM)
(一)大语言模型介绍:
1.它的核心是注意力机制:通过注意力机制,Transformer能够聚焦于输入序列中的重要部分,
类似于人类阅读时关注关键字。
2.Transformer模型通过将输入序列分解为一个个独立的token(例如单词和字符),并分别对每个
token应用注意力机制,从而能够并行处理整个序列,实现高效且精确的输出。
3.LLM的特点:规模巨大,参数量可达数十亿至数千亿,能够捕获复杂的语言结构,能够理解和生
成依赖上下文的内容,擅长对话,文章生成和情景理解,支持多语言与多模态,需要大量计算资
源。
4.LLM被认为是通用性人工智能的早期形态,展示了机器学习更高级别抽象概念和推理能力的潜
力。
(二)创建平台:
1.进入云算力平台,并点击创建,命名随便
2.选择B1.medium规格服务器,选择CUDA12.1 PyTorch2.1.1的镜像,选择Qwen2-0.5B-Instruct模
型
3.完成创建后,点击启动,并进入环境
(三)代码解释:
from transformers import AutoModelForCausalLM, AutoTokenizer #导入功能包
model = AutoModelForCausalLM.from_pretrained #对模型进行设置
"/gemini/pretrain/Qwen2-0.5B-Instruct",#模型的路径
torch_dtype="auto",
device_map="auto"
)
prompt = "你是谁?" #提示词
messages = [
{"role": "system", "content": "You are a helpful assistant."},#对于系统的设置
{"role": "user", "content": prompt}#用户输入提示词 {"role": "assistant", "content": "我是助教"}#设置模型对于提示词的回答
]
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=512#设置token数量
)
二.图像生成方法(Stable Diffusion)
(一)图像生成方法介绍:
1.基于深度学习的,将文本生成图形,或将图像生成图像的生成模型。
2.它具有较高的稳定性,并且能够快速生成高质量的图像,易于优化、多样性控制和参数调整。
(二)创建平台:
1.进入云算力平台,并点击创建,命名随便
2.选择B1.medium规格服务器,选择AUTOMATIC1111/stable-diffusion-webui的镜像,选择stable-
diffusion-models数据
3.完成创建后,点击启动,并进入环境
(三)应用:
1.进入终端,并执行以下代码:
tar xf /gemini/data-1/stable-diffusion-webui.tar -C /gemini/code/
chmod +x /root/miniconda3/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.2
cd /stable-diffusion-webui && python launch.py --deepdanbooru --share --xformers --listen
当出现 https://0.0.0.0:7860 即执行成功
2.添加端口:7860(用途随便写),并复制外部访问链接,在浏览器中打开新的标签页,粘贴搜
索,即进入Stable Diffusion,开始应用。