![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
咭咭熊
这个作者很懒,什么都没留下…
展开
-
【Image caption】——Unsupervised Image Captioning(CVPR2019)
目录一、贡献1.主要思想2. 现有研究方法对比二、实现过程1.无监督模型架构2.模型流程3.模型构成4. 训练过程5. 初始化三、实验结果及示例四、结论一、贡献我们首次尝试在不依赖任何标记的图像对的情况下进行无监督的图像字幕。 我们提出了三个目标来训练图像字幕模型。 我们提出了一种新的模型初始化管道。通过利用视觉概念检测器,我们为每个图像生成一个伪标题,并使用伪图像-句子对初始化图像字幕模型。 我们从Web中抓取了一个由超过200万个句子组成的...原创 2021-09-24 16:08:02 · 611 阅读 · 0 评论 -
Pytorch学习第四天——CNN模型的迁移学习
1.CNN模型的迁移学习:(1)利用预训练模型来加速训练的过程(经常使用在ImageNet上的;预训练模型)。(2)这是一种transfer learning的方法。做迁移学习的常用方法:fine tuning:从一个预训练模型开始,我们改变一些模型的架构,然后继续训练整个模型的参数; feature extraction:我们不再改变预训练模型的参数,而是只更新我们改变过的部分模型参数,我们称其为feature extraction 是因为我们吧预训练的CNN模型当做一个特征提取模型,利用提原创 2021-07-06 17:48:10 · 470 阅读 · 0 评论 -
Pytorch学习第三天——语言模型
语言模型1.循环神经网络RNN(1)每一步的参数W是固定的;(2)当前隐藏状态包含了所有前面出现的单词信息;(3)给定一列词向量:(4) RNN每一个步骤:(5)训练:Cross Entropy损失函数:(6)随机梯度下降SGD:(7)梯度消失和爆炸问题:原因:根据反向传播(链式法则),梯度会不断相乘,很容易引起梯度消失或者爆炸。2. 长短期记忆网络LSTM(1)LSTM是RNN的一种,大体结构几乎一样;(2)区别:LSTM的“记忆原创 2021-07-06 17:20:27 · 121 阅读 · 1 评论 -
Pytorch学习第二天——词向量
1.词向量2.Word2Vec:Skip-Gram模型3.Skip-Gram模型:负例采样原创 2021-07-06 16:56:45 · 105 阅读 · 0 评论 -
【深度学习】——安装百度深度学习框架paddlepaddle
Windows下的PIP安装1.环境准备 Python 版本 3.6+/3.7+/3.8+/3.9+ (64 bit); pip 版本 20.2.2+ (64 bit); 查看自己安装的python的版本;命令: python --version查看pip的版本(要求pip版本为20.2.2+);命令:python -m pip --version查看Python和pip是64bit,并且处理器架构是x86_64;输入:python -c原创 2021-05-24 16:18:06 · 239 阅读 · 0 评论