![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
yanni0616
看了博客有具体问题可以加微信交流,微信:1191037656
展开
-
tensorflow的安装
1.依靠这里的方法一:https://blog.csdn.net/u014516389/article/details/728181552.$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-1.1.0-cp27-none-linux_x86_64.whl...原创 2019-01-08 19:52:14 · 154 阅读 · 2 评论 -
运行target-driven navigation
1. 按照教程安装:https://blog.csdn.net/Shaun_Guo/article/details/794198992.运行时出现:Cannot uninstall 'six'. It is a distutils installed project and thus we cannot accurately determine which files belong ...原创 2019-01-09 21:21:50 · 346 阅读 · 4 评论 -
熵,交叉熵,相对熵(KL散度)
参考:https://blog.csdn.net/zhuiyuanzhongjia/article/details/80576165 https://wk.baidu.com/view/e93db92b25c52cc58bd6be87/一、什么是信息?1. 香农对信息的解释:信息是事物运动状态或存在方式的不确定性的描述。2. 何为信息?什么能提供信息? 我将你原...原创 2019-07-29 10:17:56 · 150 阅读 · 0 评论 -
贝叶斯定理,似然估计,最大似然估计
看了维基百科后的摘录:1. 贝叶斯定理: 后验概率 = (似然性*先验概率)/标准化常量 另外,比例P(B|A)/P(B)也有时被称作标准似然度(standardised likelihood),贝叶斯定理可表述为: 后验概率 = 标准似然度*先验概率 因此,我们可以反过来构造表示似然性的方法:已知有事件A发生,运用似然函数,我们估计参数B的可能性...原创 2019-08-01 09:16:30 · 1254 阅读 · 0 评论 -
《生成式深度学习》Generative Deeping Learning 笔记 第二章 深度学习
书本资源:链接:https://pan.baidu.com/s/1bUbQEndrHHWlRB_Cp_f7NA 提取码:rfit基于keras和tensoflow框架来写的。1. 三种最常用的损失函数:MSE(均方差),categorical cross-entropy(分类交叉熵), and binary cross-entropy(二元交叉熵)。 选择依据: ...原创 2019-08-01 17:51:51 · 1854 阅读 · 4 评论 -
《生成式深度学习》Generative Deep Learning 第三章 Variational Autoencoders 变分自动编码器
1. 自编码器(Autoencoders,AE):由两部分组成,编码器和解码器。 编码器:将高维的输入数据压缩为更低维的表征向量(representation vector); 解码器:将给定的表征向量解压为原始维度。 自编码器可以用来清除嘈杂的图片,since the encoder learns that it is not useful to captur...原创 2019-08-02 11:46:15 · 821 阅读 · 1 评论 -
keras的预训练权重文件模型的下载和本地存放目录、数据下载存放地址
VGG16等keras预训练权重文件的下载:https://github.com/fchollet/deep-learning-models/releases/本地存放目录:Linux下是放在“~/.keras/models/”中Win下则放在Python的“settings/.keras/models/”中在anaconda on win中是:D...原创 2019-08-02 11:14:50 · 2100 阅读 · 0 评论