1.两个程序同时跑时可能报错
来源gan网络和cnn,一起跑居然报shape不匹配
2.tensorflow各个版本的cudnn和cuda要求:
1.1,1.2cuda8cudnn5.1
1.3,1.4 8 6
1.5,1.6 9 7
目前已知cudnn版本号错了会导致从pipy上下载的tensorflow轮子装不上(附网址:https://pypi.python.org/pypi/tensorflow-gpu/1.4.0 https://pypi.python.org/pypi/tensorflow/1.4.0 其他的切换一下版本号就行,头一个是gpu后边cpu)就算奇奇怪怪的装上了也会在import的时候报错
(我用sudo pip install ×××××××××whl装不上但用
wget https://bootstrap.pypa.io/get-pip.py
sudo python2.7 get-pip.py
sudo python2.7 -m pip install ××××××××××××.whl就装上了,虽然装上了还是不能用- -后来改了cudnn版本马上就好了)
附:不用注册就可以下载cudnn的巧妙方法复制链接到迅雷里!(生怕官方修复这个bug提前把所有版本都下载了一边可还行= =)
附:cudnn各个版本网址https://developer.nvidia.com/rdp/cudnn-archive
#============================================================
tensorflow版本問題:
https://blog.csdn.net/caicai_zju/article/details/70477929
那個tf.concat()裏面參數的前後順序調一下,都試試兩個總有一個對的,各種版本亂七八糟的
https://blog.csdn.net/wang2008start/article/details/71516198
ValueError: Variable d_h0_conv/w/Adam/ does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=tf.AUTO_REUSE in VarScope?
在self.d_optim = tf.train.AdamOptimizer(0.0002, beta1=0.5).minimize(self.d_loss, var_list=self.d_vars)前加上:
tf.variable_scope(tf.get_variable_scope(),reuse = reuse=tf.AUTO_REUSE):
注意換行