tensorflow杂记
仅用于个人纪录
这个作者很懒,什么都没留下…
展开
-
np.pad()
import numpy as nparray = np.array([[1, 1],[2,2]])"""((1,1),(2,2))表示在二维数组array第一维(此处便是行)前面填充1行,最后面填充1行; 在二维数组array第二维(此处便是列)前面填充2列,最后面填充2列constant_values=(0,3) 表示前面的填充0,后面的填充3"""ndarray=np.pad(array,((2,1),(2,2)),'constant', constan原创 2020-12-15 20:26:18 · 62 阅读 · 0 评论 -
知识蒸馏和迁移学习
这个是链接原创 2020-12-08 21:04:39 · 1147 阅读 · 0 评论 -
matplotlib显示不出图片的问题
总是有奇奇怪怪的问题#display the imageplt.imshow(image)plt.show()原创 2020-12-03 21:55:10 · 850 阅读 · 0 评论 -
报错pikled
img = Image.open("./result/atten_map/ISIC_0015937.jpg")[a,c] = img.size原创 2020-12-03 21:34:15 · 68 阅读 · 0 评论 -
图像和array的互相转换
1. PIL image转换成arrayimg = np.asarray(image)2. array转换成imageImage.fromarray(np.uint8(img))原创 2020-12-03 20:49:29 · 986 阅读 · 0 评论 -
蒙特卡洛dropout
链接是这个https://blog.csdn.net/weixin_26731327/article/details/109070481?utm_medium=distribute.pc_relevant.none-task-blog-title-2&spm=1001.2101.3001.4242自我总结先写前面,我认为蒙特卡洛dropout首先肯定是测试的时候也开着dropout,然后就是测试n次的测试集,然后求n次的输出概率的平均值,得到不确定性,以此再取沿轴的最大值;普通的softmax在原创 2020-12-01 16:31:59 · 2270 阅读 · 4 评论 -
ROC曲线绘制
这个是多分类标签的绘制二分类的话import numpy as npfrom sklearn.metrics import roc_curve, aucy = np.array([1, 1, 1, 1, 1, 2, 2, 2, 2, 2])y_proba = np.array([0.1, 0.4, 0.4, 0.3, 0.5, 0.4, 0.6, 0.7, 0.8, 0.5]) # probability of predic原创 2020-10-17 20:50:38 · 116 阅读 · 0 评论 -
sigmoid与softmax
以前一直以为多分类才用softmax, 现在发现错了• 如果模型输出为非互斥类别,且可以同时选择多个类别,则采用Sigmoid函数计算该网络的原始输出值。• 如果模型输出为互斥类别,且只能选择一个类别,则采用Softmax函数计算该网络的原始输出值。这是详细地址...原创 2020-09-22 19:40:08 · 76 阅读 · 0 评论 -
tensorflow计算准确率
y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)cross_entropy = -tf.reduce_sum(y_*tf.log(y_conv))train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))accuracy =原创 2020-09-22 15:37:43 · 993 阅读 · 0 评论 -
损失函数的使用注意
https://blog.csdn.net/legend_hua/article/details/79943496?utm_source=blogxgwz2这是另外一个说明tf.nn.softmax_cross_entropy_with_logits# 自定义交叉熵 cross_entropy1 = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y1, 1e-10, 1.0))) cross_entropy2 = -tf.reduce_mean(y_原创 2020-09-22 15:11:40 · 183 阅读 · 0 评论 -
不均衡样本的loss
这个是tf.nn.weighted_cross_entropy_with_logits(labels,logits, pos_weight, name=None)还有focalloss之前有写过原创 2020-09-21 20:01:53 · 289 阅读 · 0 评论 -
focal loss
第三个好使,第一个没有加sigmoid,出来的loss奇奇怪怪import tensorflow as tfdef focal_loss(pred, y, alpha=0.25, gamma=2): """Compute focal loss for predictions. Multi-labels Focal loss formula: FL = -alpha * (z-p)^gamma * log(p) -(1-alpha)原创 2020-09-18 16:14:17 · 123 阅读 · 0 评论 -
标签互换后的ROC
原创 2020-08-22 16:00:28 · 84 阅读 · 0 评论 -
input_data.read_data_sets(“MNIST_data/“, one_hot=True)
会出现因为网络原因导致失败的情况,所以就用以前离线的数据,注意一定得要压缩包,不可以解压原创 2020-08-10 09:22:15 · 1075 阅读 · 0 评论 -
输出混淆矩阵和auc值
y_test = np_utils.to_categorical(test_label,num_classes=2) for i in range(len(pred)): max_value=max(pred[i]) for j in range(len(pred[i])): if ma...原创 2020-07-21 20:54:17 · 391 阅读 · 0 评论 -
keras输出分类评价指标
点击查看原创 2020-07-21 19:43:58 · 1117 阅读 · 0 评论 -
sublime和python3.6
点击查看即可原创 2020-06-11 21:40:32 · 127 阅读 · 0 评论 -
tensorflow.nn.bidirectional_dynamic_rnn()函数的用法
原文链接在送入网络之前是需要padding得,但是需要指定sequence_length因为之前会做个batch所以不知道该怎么制定转载 2020-05-18 09:22:30 · 146 阅读 · 0 评论 -
关于dense,之前我还是不太懂
总结就是只改变最后一个维度的数量import tensorflow as tf inputs = tf.ones([2,20])a = tf.layers.dense(inputs,60)print(a.get_shape())#(2,60)import tensorflow as tf inputs = tf.ones([2,3,20])a = tf.layers.dense(...原创 2020-05-04 11:27:03 · 333 阅读 · 0 评论 -
attention中的问题
softmax和这个是一个意思原创 2020-04-28 22:23:36 · 552 阅读 · 0 评论 -
关于aattention
这个实现的话,其实就是沿着某个轴相加进行实现原创 2020-04-18 19:21:01 · 245 阅读 · 0 评论 -
resnet
讲解resnet问题https://www.jianshu.com/p/12bbc8662f71上图其实是卷积里面包含个池化def sampling(input_tensor, #Tensor入口 ksize = 1, #采样块大小 str...原创 2020-04-18 14:41:44 · 122 阅读 · 0 评论 -
报错ValueError: Tensor("ExponentialDecay:0", shape=(), dtype=float32) must be from the same graph as T
因为加了seedtf.reset_default_graph()把上面这个去掉就行原创 2020-04-13 12:37:11 · 2585 阅读 · 2 评论 -
双向GRU做分类
因为最后的输出是一个前向和一个后向,所以应该连接起来共同作为分类的向量原创 2020-04-03 15:23:01 · 5103 阅读 · 0 评论 -
LSTM和GRU的动态讲解
转至https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/82922386?depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1&utm_source=distribute.pc_relevant.none-task-blog-...原创 2020-04-03 14:48:34 · 569 阅读 · 0 评论 -
添加attention
tf.contrib.rnn.AttentionCellWrapper:_init_(cell,attn_length,attn_size=None,attn_vec_size=None,input_size=None,state_is_tuple=True,reuse=None)添加attentioncell: 要添加attention的RNNcellattn_leng...原创 2020-04-02 20:14:28 · 445 阅读 · 0 评论 -
产生batch
# 用于产生batchdef batch_iter(data, batch_size, num_epochs, shuffle=True): data_size = len(data) num_batches_per_epoch = data_size// batch_size # 每个epoch中包含的batch数量 for epoch in range(num_epo...原创 2020-04-01 20:33:23 · 202 阅读 · 0 评论 -
关于GRU和attention的
转至https://blog.csdn.net/yanqianglifei/article/details/82885522原创 2020-04-01 19:47:08 · 3074 阅读 · 0 评论 -
InternalError (see above for traceback): Dst tensor is not initialized.
这个问题真是太愚蠢了,我还打算修改好几个,原来是内存耗尽了原创 2020-03-31 10:17:10 · 1007 阅读 · 0 评论 -
指数衰减
import tensorflow as tf; import numpy as np; import matplotlib.pyplot as plt; learning_rate = 0.1 decay_rate = 0.96 global_steps = 1000 #相当于epochdecay_steps = 100 #每多少步下降一下,注意一定得比epoch...原创 2020-03-28 10:54:03 · 595 阅读 · 0 评论 -
学习率
https://blog.csdn.net/weixin_39875161/article/details/93423883原创 2020-03-25 20:42:41 · 123 阅读 · 0 评论 -
改变学习率
https://blog.csdn.net/m0_37602827/article/details/88647989原创 2020-03-25 14:50:47 · 353 阅读 · 0 评论 -
关于shuffle的问题
https://blog.csdn.net/CV_YOU/article/details/82178844转载 2020-01-10 10:15:20 · 171 阅读 · 0 评论 -
关于tf.one_hot
import tensorflow as tflabels = [[0,1,1], [1,0,1]]res = tf.one_hot(labels,2 )with tf.Session() as sess: print(sess.run(res)) print(res)输出为[[[1. 0.] [0. 1.] [0. 1.]] [[0. 1.] [1...原创 2019-12-27 16:20:29 · 54 阅读 · 0 评论