![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
兔白DingZiLin
程序员的宿命 就是修改一个bug 然后冒出来更多bug吧
展开
-
tf.image.non_max_suppression()会扩充数据
tf.image.non_max_suppression( boxes, scores, max_output_size, iou_threshold=0.5, score_threshold=float('-inf'), name=None )tf.image.non_max_suppression()很多文章都有提到:按照参数scores的降序贪婪的选择边界框的子集。删除掉那些与之前...原创 2020-05-22 16:03:54 · 332 阅读 · 0 评论 -
tf.add()不只是简单相加
tf.add()大多数用法都是,单个数字和单个数字的简单相加,例如:import tensorflow as tfx = tf.constant(2)y = tf.constant(1)sess = tf.Session()print(sess.run(tf.add(x, y)))输出:3但是它还有一种更重要的用法,很多文章都没有说,即按维度的相加,将一个与高维度矩阵的子维度与高维度的每一个维度相加,例如:import tensorflow as tfa = tf.consta原创 2020-05-20 11:54:46 · 3373 阅读 · 2 评论 -
为什么Faster-rcnn rpn中通道的可以代表这么多含义,人为赋予通道意义
在rpn网络中,我们想要对特征图上每一个特征点,得到9个anchors的(x,y,w,h)的四个信息,通常使用36通道[1*1]的卷积去卷积输入,并且得到一个36通道的输出,这从逻辑上很好理解,9个anchor,每个anchor要获得(x,y,w,h)的四个信息,所以9*4 = 36,36个通道。但是,仔细去思考,会有以下几个问题:1.为什么用36个通道就能表示9个anchors的(x,y,w,h)的四个信息,仅仅是因为9*4 = 36吗?2.我们用36通道的卷积核去卷积输入时,这个卷积核第一次原创 2020-05-17 22:19:02 · 223 阅读 · 0 评论 -
tf.transpose()的通俗解释
tf.transpose( a, perm=None, name='transpose', conjugate=False)a:表示的是需要变换的张量perm:a的新的维度序列name:操作的名字conjugate:可选的,设置成True,那么就等于tf.conj(tf.transpose(input))主要来说perm属性perm的意思是张量的维度 i 将对应于输入维度 perm[i].解释一下什么意思:比如一个二维张量a,其形状为[2,3...原创 2020-05-11 16:56:11 · 447 阅读 · 0 评论 -
python +tnesorflow 使用tf.nn.conv2d ()为什么输入和权重的shape 不一样
基于python+tensorflow的深度学习中,数据的输入一般为[batch, in_height, in_weight, in_channel]权重格式一般为[ filter_height, filter_weight, in_channel, out_channels ],其中 filter_height 为卷积核高度,filter_weight 为卷积核宽度,in_channel 是图像通道数 ,和 input 的 in_channel 要保持一致,out_channel 是卷积核数量。.原创 2020-05-10 22:29:57 · 359 阅读 · 0 评论 -
Tenroflow 中的前向传播框架的返回值
使用Tensorflow框架,定义一组前向传播神经网络,设标签为(x0,x2,x3.....xn),其返回结果为(P(x1),P(x2),P(x3)...P(xn))这样一个n维向量,即数据集落在标签(x0,x2,x3.....xn)的概率,然后使用tf.argmax(logits,1),即返回这组概率向量中,最大的概率所在的位置,即第几个标签...原创 2019-08-27 19:37:48 · 123 阅读 · 0 评论