【文生图系列】文生图大模型合集与效果对比

文章目录
  • * DELL · E
    
    •   * DELL · E 1
      
      • DELL · E 2
    • ERNIE-ViLG
    •   * ERNIE-ViLG 1
      
      • ERNIE-ViLG 2
      • Paddlehub
    • Imagen
    • Midjourney
    • Stable Diffusion
    • AltDiffusion
    • eDiff-I
    • 阿里通义

DELL · E

DALL·E到目前为止有两个版本,2021年1月,OpenAI发布了DALL·E;2022年,DALL·E 迎来了升级版本-DALL·E 2。与
DALL·E 相比,DALL·E 2 在生成用户描述的图像时具有更高的分辨率和更低的延迟。

DELL · E 1

DALL-E 只开放了使用图像重建部分 d-VAE 训练的 CNN 编码器和解码器部分,而 Transformer 代码部分还没有公开。

DALL·E是GPT-3的120亿参数版本,训练文本-
图像对数据集从文本描述中生成图像。与GPT-3一样,DALL·E也是一个语言Transformer模型,它接受文本和图像作为包含1280
tokens的单独数据流,使用最大似然训练去一个接一个地生成所有的tokens。这种训练程序允许DALL·E不仅从头开始生成图像,还可以依据文本提示词生成存在图像的任何区域扩展到该图像的右下角。

一个token是离散词汇表里面的任何符号。DALL·E的此汇报包含文本和图像概念的tokens。文本词汇表里的token总数是16384,每个图像标题使用最大256
BPE编码的tokens表示;图像词汇表里的token总数是8192,每个图像使用1024个token表示(1024+256=1280)。

DALL·E训练一个Transformer,将文本和图像tokens作为单个数据流进行自回归建模。训练采用了两个阶段策略。

  1. 第一阶段:训练一个离散变分自动编码器(discrete variational autoen coder,dVAE)将每个256x256大小的RGB图像压缩为32x32网格大小的图像tokens,其中网格中的每一个元素可假设有8192个可能值。这样就可以将上下文大小减少了192倍(256x256x3=192x32x32)却不会导致视觉质量大幅下降。
  2. 第二阶段:合并256 BPE编码的文本tokens和32x32=1024图像token,训练一个自回归transformer模型建模文本和图像tokens的联合分布。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/385795c1735d473ea8da982d6421bedd.png#pic_center)

DELL · E 2

DALL · E
2体验需要有OpenAI的账号,目前OpenAI对中国地区不提供服务,注册OpenAI需要科学上网,并且需要验证手机号。我在淘宝上买了一个美国的手机号验证码,才注册成功。DALL·E
2需要收费,15美元115 credits,一个credit就是一条成功的请求。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/25584095c567492fb8f4fa636d4441df.png#pic_center)

DALL · E 2仅仅具有35亿参数量,但是生成的图像分辨率却是DALL · E 的4倍。而且相比于DALL · E,DALL · E
2可以综合文本描述中给出的概率、属性与风格等三个元素生成更真实和更准确的图像。
![在这里插入图片描述](https://img-
blog.csdnimg.cn/247f7497ea464b38ae3e55fd37aacf86.png#pic_center)
假设图像为 x x x,与图像相对应的文本为 y y y,文本-图像对为 ( x , y ) \left(x, y \right)
(x,y)。对于给定的图像 x x x, z i z_{i} zi​和 z t z_{t}
zt​分别为此图像对应的CLIP图像嵌入向量和文本嵌入向量。DALL · E 2从文本生成图像包含两个组件:

  1. 先验 P ( z i ∣ y ) P\left( z_{i} | y \right) P(zi​∣y)输出给定文本 y y y的CLIP图像嵌入向量 z i z_{i} zi​。
  2. 解码器 P ( x ∣ z i , y ) P\left( x | z_{i}, y \right) P(x∣zi​,y)生成以上述图像嵌入向量为条件的图像 x x x。

ERNIE-ViLG

ERNIE-ViLG是百度文心系列的生成模型,目前已到2.0版本。文心ERNIE-ViLG是全球最大规模中文跨模态生成模型。

ERNIE-ViLG 1

文心 ERNIE-ViLG 参数规模达到100亿,它构建了包含1.45亿高质量中文文本-
图像对的大规模跨模态对齐数据集,该模型首次通过自回归算法将图像生成和文本生成统一建模,增强模型的跨模态语义对齐能力,显著提升图文生成效果。文心 ERNIE-
ViLG模型可以做文本生成图像任务、图像描述(Image Captioning)任务和生成式视觉问答(Generative VQA)任务。

ERNIE-ViLG 使用编码器-解码器参数共享的 Transformer
作为自回归生成的主干网络,同时学习文本生成图像、图像生成文本两个任务。基于图像向量量化技术,文心 ERNIE-ViLG
把图像表示成离散的序列,从而将文本和图像进行统一的序列自回归生成建模。在文本生成图像时,文心 ERNIE-ViLG 模型的输入是文本 token
序列,输出是图像 token 序列;图像生成文本时则根据输入的图像序列预测文本内容。两个方向的生成任务使用同一个 Transformer
模型。视觉和语言两个模态在相同模型参数下进行相同模式的生成,能够促进模型建立更好的跨模态语义对齐。

ERNIE-ViLG 2

文心 ERNIE-ViLG 2.0
通过视觉、语言等多源知识指引扩散模型学习,强化文图生成扩散模型对于语义的精确理解,以提升生成图像的可控性和语义一致性。同时,ERNIE-ViLG 2.0
首次引入基于时间步的混合降噪专家模型来提升模型建模能力,让模型在不同的生成阶段选择不同的“降噪专家”网络,从而实现更加细致的降噪任务建模,提升生成图像的质量。
![在这里插入图片描述](https://img-
blog.csdnimg.cn/62c08d8993094ada8d44ee625c2bd706.png#pic_center)
基于语言和图像知识的知识增强算法 。 为提升生成图像的语义一致性和可控性,ERNIE ViLG 2.0
将知识增强算法融入扩散模型学习,在扩散模型学习过程中,引入语言、视觉等多源知识指引模型更加关注文本和图像中的核心语义元素,同时针对训练数据噪声带来的训练图文样本语义偏差问题提出了文本语义补全的方法,对图文的语义一致性进行针对性学习,进而实现精准的细粒度语义控制。
混合降噪专家网络 。 针对模型建模能力不足,导致图像质量不够好的问题,ERNIE ViLG 2.0
提出了针对不同阶段选择不同网络(降噪专家)进行建模的框架,有效地解决了不同阶段对模型能力要求不一致的问题,减少降噪任务的互相干扰,提升图像生成的质量。由于每个生成阶段只选取一个专家进行生成,实现了在不增加模型预测计算量的情况下对模型建模能力的扩充。

Paddlehub

paddlehub中提供了ERNIE-
ViLG的模型API预测,需要安装paddlepaddle和paddlehub。

命令行预测如下所示,事先需要申请API key和Secret key。style参数可选如下风格:古风、油画、水彩、卡通、二次元、浮世绘、蒸汽波艺术、
low poly、像素风格、概念艺术、未来主义、赛博朋克、写实风格、洛丽塔风格、巴洛克风格、超现实主义、探索无限

hub run ernie_vilg --text_prompts “火焰,凤凰,少女,未来感,高清,3d,精致面容,cg感,古风,唯美,
毛发细致,上半身立绘” --style “古风” --output_dir ernie_vilg_out --ak ‘your API key’
–sk ‘your Secret key’

提示词生成的图片1生成的图片2风格
巨狼,飘雪,蓝色大片烟雾,毛发细致, 烟雾缭绕,高清,3d,cg感,侧 面照![在这里插入图片描述](https://img-
blog.csdnimg.cn/649421e052164061b3b6f495dcb77da8.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/63d597954e5b48789cbf4161df3ae0d4.png#pic_center)写实风格
人间四月芳菲尽,山寺桃花始盛开![在这里插入图片描述](https://img-
blog.csdnimg.cn/4f7620bb9dc34a37b7cfc6be7e9aa5ec.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/aa41f0ecc4fa4d80adf24cf676e548b1.png#pic_center)古风
A young pretty Jewish woman, realistic, 4K, award winning photograph, portrait
photography, Kodachrome![在这里插入图片描述](https://img-
blog.csdnimg.cn/2376c950609e4bcca35a9a304d9c43fc.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/8de24dba62304a5da5d7ea08c613b344.png#pic_center)写实风格
火焰,凤凰,少女,未来感,高清,3d,精致面容,cg感,古风,唯美, 毛发细致,上半身立绘![在这里插入图片描述](https://img-
blog.csdnimg.cn/6587447c04d34ef1a4662ba2c9cf6757.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/c7e7f36514454f2093b3680f4a257515.png#pic_center)古风

Imagen

Imagen是谷歌推出的,谷歌发现在纯文本预料库上预训练的通用大型语言模型对于文本到图像的生成人物非常有效。

  1. 文本被输入到一个冻结的预训练Transformer 编码器,该编码器输出向量队列(文本编码)
  2. 文本编码器被传递到图像生成扩散模型中,该模型从高斯噪声逐渐去除噪声,生成反映文本内语义信息的新图像,该模型的新图像是一个64x64大小的图像。
  3. 之后,再使用两个扩散模型(STM和MTL),以第一步的文本编码为条件,将图像超分成一个1024x1024的图像。

Imagen的文本编码器是T5的编码器。图像生成器是扩散模型。Small-to-
Medium(STM)超分模型以64x64的图像为输入,超级解析生成256x256的图像,STM也是一个扩散模型。Medium-to-
Large(MTL)超分模型以256x256的图像为输入,超级解析生成1024x1024的图像,MTL和STM模型相似,也是一个扩散模型。
![在这里插入图片描述](https://img-
blog.csdnimg.cn/c2e835658d9f4601bfb9efcbecf774fd.png#pic_center)
imagen只开源了pytorch版的[imagen](https://github.com/lucidrains/imagen-
pytorch)实现,但是并没有公布模型参数,所以需要自己训练数据集生成模型才能够推理使用。

Midjourney

Midjourney是一个由Midjourney研究实验室开发的人工智能绘图程序,Midjourney应用托管到聊天应用Discord,用户注册Discode并加入Midjourney的服务器就可以开始AI创作了。Midjourney在2023年三月已经迭代到V5版本,V5版本生成的图片分辨率更高,写实风格人物主体塑性更加准确。

国内用户想要使用Midjourney,一是科学上网,注册验证Discord账号,然后进入MidJourney官网找到Join the Beta
绑定Discode账号,接受邀请,进入Midjourney社区。二是需要付费。

可在Discode中添加个人服务器,再邀请Midjourney机器人进入个人服务器即可。在底部对话框中输入指令/imagine + prompt就可生成图像。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/689901c537b14524b4c1abbed763bbcc.png#pic_center)

Midjourney
V5版本凭借如下的一张情侣照片"火出圈",逼真地就像人类拿着摄像机照出的相片。相比较于V4,V5版本细节更加逼真;拥有更多的风格;能画手,在有面部特写时,也能搞定各种肌肤纹理以及光影效果;对提示词更加敏感,用更少更精简的文本生成更好更有效的图片。风格可以从0-1000中选择,越靠近1000,越艺术。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/908e3aaab89e4ddd80a5195d330f8471.png#pic_center)
2023年6月底,Midjourney又推出了5.2版本,最令人心动的新功能是Zoom out
功能,通过1.5倍、2倍以及自定义缩放,将相机拉出,并填充所有侧面细节,达到重构图像的效果。

Stable Diffusion

Stable Diffusion,该项目由初创公司 StabilityAI 和慕尼黑大学机器视觉学习组和 AI 视频剪辑技术创业公司 Runway
合作开发,并得到了黑客组织 EleutherAI和德国非盈利组织 LAION 的支持。

Stable Diffusion不是一个整体模型,它由几个组件和模型组成。首先是文本理解组件(text-understanding
component),将文本信息转换成数字表示,以捕捉文本中的想法。其次是图像生成器(image generator),图像生成器包括两步,图像信息创建者(
Image information creator)和图像解码器(Image Decoder)。

下图是stable diffusion的一个流程图,包含了上述描述的三个组件,每个组件都有相应的神经网络。

  1. 文本理解组件:Clip Text为文本编码器。以77 token为输入,输出为77 token 嵌入向量,每个向量有768维度。
  2. 图像信息创建者:UNet+Scheduler,在潜在空间中逐步处理扩散信息。以文本嵌入向量和由噪声组成的起始多维数组为输入,输出处理的信息数组。
  3. 图像解码器:自动编码解码器,使用处理后的信息数组绘制最终的图像。以处理后的维度为4x64x64的信息数组为输入,输出尺寸为3x512x512的图像。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/045fc9e1b7a2419f812f3698f509d25d.png#pic_center)
Stable Diffusionv1-v2版本都已开源,SD模型可微调,常见的微调方法:DreamBooth、textual
inversion、hypernetwork和LoRA。

Stable
Diffusion的图像生成很吃prompt。本来想所有提示词都一样,好对所有模型进行一个效果对比,但是SD的表现太拉跨,所以SD模型只展示有效prompt下生成的最好图片。

提示词图片
In this photography, the rose and mulberry background is set against the
backdrop of a misty garden with tiny water droplets glistening on the leaves
and petals![在这里插入图片描述](https://img-
blog.csdnimg.cn/da7ef955780249fdbe5819ba94d5eed9.png#pic_center)
a highly detailed and whimsical concept art illustration of a white rabbit cub
in a pink and blue school uniform and cute plush hat, sitting on a giant apple
made of transparent foam, gl crystals, and cherry blossoms within a magical
winter wonderland scene. The rabbit has symmetrical ears, bright big eyes, a
sweet smile, and a plump body. The scene has a whimsical and enchanting
atmosphere, similar to the art style of Studio Ghibli or Hayao Miyazaki, with
soft lighting that creates a magical movie-like atmosphere. The image is
rendered in high resolution with Pixar or Unreal Engine rendering software,
with exquisite fur details that capture the rabbit’s fluffy texture and
realistically recreate the snow-covered landscape.![在这里插入图片描述](https://img-
blog.csdnimg.cn/18a360088a22463c8cbabf5d6cc5b604.png#pic_center)
best quality,extremely detailed CG unity 8k wallpaper, high detailed, a sile
view of a giant wolf with fine hair, snowy environment, vast blue smoke
![在这里插入图片描述](https://img-
blog.csdnimg.cn/0bc5c98483114417b35283424e93606b.png#pic_center)
best quality, masterpiece, highly detailed, refined rendering, peach blossom,
flowers, tree, petals on waterm floatin petals, full moon in the sky
![在这里插入图片描述](https://img-
blog.csdnimg.cn/cf89d2484b404cf5a489fdcb6c75fdbb.png#pic_center)

AltDiffusion

智源研究院首先推出的是双语AltDiffusion,时隔不到一周,智源团队又推出重要升级版
AltDiffusion-m9,全面支持中、英、西、法、日、韩、阿、俄、意等九种不同语言的文图生成任务,后来又推出18种语言文生图模型AltDiffusion-m18。智源团队使用多语言预训练模型和
Stable Diffusion 结合,训练多语言文图生成模型 ——
AltDiffusion-m18,支持18种语言的文图生成,包括中文、英文、日语、泰语、韩语、印地语、乌克兰语、阿拉伯语、土耳其语、越南语、波兰语、荷兰语、葡萄牙语、意大利语、西班牙语、德语、法语、俄语。

AltDiffusion使用 AltCLIP(双语CLIP),基于Stable-Diffusion训练了双语Diffusion模型,训练数据来自
WuDao数据集和LAION。AltCLIP 则是 AltDiffusion 模型背后的重要训练技术。利用 OpenAI 发布的预训练的多模态表征模型
CLIP,将其文本编码器更换为预训练的多语言文本编码器 XLM-R(XLM-
R是Facebook推出的多语言模型,2.5TB,100种语言,干净的CommonCrawl数据集上训练得到),并通过包含教师学习和对比学习的两阶段训练模式对语言和图像表征进行对齐。这种方法在第一阶段先将其他语言的表征与
CLIP
中的英文表征做对齐,在这个训练阶段不需要多语言的图文对数据,而只需要多语言的平行语料。在第二阶段只需要少量的多语言图文对,就能学到效果很好的多语言图文表征,很大程度上减少了多语言多模态表征模型对于训练数据的依赖。

智源提供体验的平台为flagstudio.,现模型默认是AltDiffusion-m18。包括几十种绘画风格和艺术家风格。AltCLIP-m18模型代码已经在[FlagAI/examples/AltCLIP-m18上](https://github.com/FlagAI-
Open/FlagAI/tree/master/examples/AltCLIP-m18)开源,权重位于[modelshub](https://model.baai.ac.cn/model-
detail/100095)上,此外还提供了微调,推理,验证的脚本

提示词生成的图片1生成的图片2风格
在飘雪和蓝色大片烟雾的环境下,一只毛发细致的巨狼的侧面照![在这里插入图片描述](https://img-
blog.csdnimg.cn/fe6fabc43fc44c728f602ae6fe524401.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/aa4ea04b95354d4cae6877bccfb2f719.png#pic_center)写实风格
人间四月芳菲尽,山寺桃花始盛开![在这里插入图片描述](https://img-
blog.csdnimg.cn/213b49fbdf914043a6dc5e1a1dc73a2a.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/89a7e87e09864449bca62fe7e725f2c5.png#pic_center)国画+丰子恺
A young pretty Jewish woman, realistic, 4K, award winning photograph, portrait
photography, Kodachrome![在这里插入图片描述](https://img-
blog.csdnimg.cn/f94448b48dc74a18b8c221e1fd2fc56a.png#pic_center)
![在这里插入图片描述](https://img-
blog.csdnimg.cn/d3bc91d033e74548b36fdde290f37295.png#pic_center)相机

eDiff-I

eDiff-I出自NVIDIA,与其他通过迭代去噪进行图像合成的生成式文转图模型不同,Nvidia的eDiff-
I使用一个专门对生成过程的不同区间进行去噪的强大去噪器集合。

eDiff-I的图像合成管道是由三个扩散模型组成——一个低分辨率扩散模型,可以合成64 x
64分辨率的样本,以及两个高分辨率扩散模型,可以分别将图像逐步上采样到256 x 256和1024 x 1024分辨率。eDiff-
I用到了两个文本编码器,T5和CLIP,还有CLIP图像编码器,对文本和图像进行编码后,送入级联扩散模型中,逐渐生成分辨率为1024x1024的图像。

eDiff-I没找到开源的GitHub项目,也没找到可试用的网址或者API,只有youtube上eDiff-I的效果展示video。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/e3137cd180a84212b7554d7fa79ad40d.png#pic_center)

阿里通义

阿里文生图模型名称为ModelScope,暂不支持pipeline推理、下载和训练。ModelScope整体参数模型约50亿,支持中英双语输入,输入token最大为500,生成图片尺寸有三种选择,1024:1024,1280:768和768:1280。

![在这里插入图片描述](https://img-
blog.csdnimg.cn/e1356240e43b46729a9225060d0e598d.png#pic_center)

文本到图像生成扩散模型由特征提取、级联生成扩散模型等模块组成。通过知识重组与可变维度扩散模型加速收敛并提升最终生成效果。ModelScope模型分为文本特征提取(CLIP)、文本特征到图像特征生成(Transformer)、级联扩散生成模型(UNet)等子网络组成,训练也是分别进行。

  1. 文本特征提取使用大规模图文样本对数据上训练的CLIP的文本分支得到。
  2. 文本到图像特征生成部分采用GPT结构,是一个width为2048、32个heads、24个blocks的Transformer网络,利用causal attention mask实现GPT预测。
  3. 64x64、256x256、1024x1024扩散模型均为UNet结构,在64x64、256x256生成模型中使用了Cross Attention嵌入image embedding条件。为降低计算复杂度,在256扩散模型训练过程中,随机64x64 crop、128x128 crop、256x256 crop进行了multi-grid训练,来提升生成质量;在1024扩散模型中,对输入图随机256x256 crop。
提示词生成图片
在飘雪和蓝色大片烟雾的环境下,一只毛发细致的巨狼的侧面照![在这里插入图片描述](https://img-
blog.csdnimg.cn/5ce4582e4faf44118ad602823c8cad44.png#pic_center)
人间四月芳菲尽,山寺桃花始盛开![在这里插入图片描述](https://img-
blog.csdnimg.cn/31a7d197537e44f49c828111aa4aae6b.png#pic_center)
A young pretty Jewish woman, realistic, 4K, award winning photograph, portrait
photography, Kodachrome![在这里插入图片描述](https://img-
blog.csdnimg.cn/60568570bdf64ece96237c03fbc31815.png#pic_center)
👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 19
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PaddlePaddle是一个开源的深度学习平台,可以用于构建和训练深度学习模型。如果你想使用PaddlePaddle,可以通过源码编译的方式来安装。首先,你需要在Git Bash中执行以下两条命令来将PaddlePaddle的源码克隆到本地,并进入Paddle目录: ``` git clone https://github.com/PaddlePaddle/Paddle.git cd Paddle ``` 接下来,你可以根据自己的需求进行编译。如果你使用的是Windows系统,可以使用源码编译来安装符你需求的PaddlePaddle版本。具体的编译步骤可以参考官方文档中的Windows下源码编译部分\[2\]。 如果你想在docker镜像中编译PaddlePaddle,可以使用以下命令启动docker镜像并进行编译。如果你需要编译CPU版本,可以使用以下命令: ``` sudo docker run --name paddle-test -v $PWD:/paddle --network=host -it hub.baidubce.com/paddlepaddle/paddle:latest-dev /bin/bash ``` 如果你需要编译GPU版本,可以使用以下命令: ``` sudo nvidia-docker run --name paddle-test -v $PWD:/paddle --network=host -it hub.baidubce.com/paddlepaddle/paddle:latest-dev /bin/bash ``` 以上是关于使用源码编译PaddlePaddle的一些基本步骤和命令。你可以根据自己的需求和操作系统选择适的方式来安装PaddlePaddle。 #### 引用[.reference_title] - *1* *2* *3* [《PaddlePaddle从入门到炼丹》一——新版本PaddlePaddle的安装](https://blog.csdn.net/qq_33200967/article/details/83052060)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值