人工智能
文章平均质量分 66
biu piu biu piu
这个作者很懒,什么都没留下…
展开
-
FuseDream论文阅读笔记 文本生成图像 text2image
文本生成图像论文FuseDream阅读笔记,借助BigGAN和CLIP,完成无训练、零样本的文本生成图像模型原创 2022-11-09 18:14:01 · 933 阅读 · 0 评论 -
谷歌Colab配置 运行python项目 教程
谷歌Colab使用教程,初学者原创 2022-11-07 13:04:09 · 8217 阅读 · 1 评论 -
CLIP跨语言多模态模型 pytorch下安装
github地址GitHub - openai/CLIP: Contrastive Language-Image Pretraining创建python环境conda create -n CLIP python=3.8安装pytorch和torchvisionconda install --yes -c pytorch pytorch=1.7.1 torchvision cudatoolkit=11.0下载包:ftfy regex tqdm 和CLIPpip原创 2022-03-25 21:12:13 · 7597 阅读 · 1 评论 -
MirrorGAN论文阅读笔记 文本生成图片 Text-To-Image
原先的文本生成图片问题是输入文本,训练生成器和判别器,生成相对应的图片。MirrorGAN借鉴了CycleGAN的思想,在此基础上增加了一个判别过程,即将生成的图片再转化成文本描述,如果图片生成的是对的,那么再次转化后的文本描述应该与输入的文本有着相同的语义。先放一张结构图:MirrorGAN由三部分构成:STEM、CLAM、STREAM。STEM:a semantic text embedding module 语义文本嵌入模块,生成单词级和句子级的文本嵌入GLAM:a globa..原创 2022-03-02 14:10:18 · 3306 阅读 · 0 评论 -
深度学习中epoch、batch_size、batch_num、iterations的含义
参考:深度学习中的Epoch,Batchsize,Iterations,都是什么鬼? - 简书在训练模型时,如果训练数据过多,无法一次性将所有数据送入计算,那么我们就会遇到epoch,batchsize,iterations这些概念。为了克服数据量多的问题,我们会选择将数据分成几个部分,即batch,进行训练,从而使得每个批次的数据量是可以负载的。将这些batch的数据逐一送入计算训练,更新神经网络的权值,使得网络收敛。epoch一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播.原创 2021-12-28 16:32:34 · 3204 阅读 · 0 评论 -
各个GAN的训练结果
原创 2021-12-10 17:37:47 · 663 阅读 · 0 评论 -
TensorFlow-GPU版本安装(CUDA11.1)
在下载CUDA前先查看自己NVIDIA的版本信息我选择安装11.1.1版本官方的显卡驱动版本号https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#cuda-major-component-versions__table-cuda-toolkit-driver-versionsCUDA11.1下载链接:https://developer.nvidia.com/cuda-11.1.0-downlo...原创 2021-07-31 11:22:37 · 11663 阅读 · 9 评论 -
AttnGAN论文阅读笔记 Text to Image
引入 Attentional Generative network原创 2021-06-16 10:20:40 · 1074 阅读 · 0 评论 -
GAN-INT-CLS 论文阅读笔记 text2img
参考https://cloud.tencent.com/developer/article/1089112https://www.jianshu.com/p/1515958fd82aGAN-INT-CLS 是第一个将文本描述(即句嵌入向量)作为监督信号加入到图像生成中的应用研究下面是网络结构图,生成的是64*64的图片text to image分为两部分获取重要细节的文本特征表示用这个特征合成一张较好的图片文本描述向量——上图...原创 2021-05-25 17:38:14 · 1201 阅读 · 0 评论