![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
总结
兔白DingZiLin
程序员的宿命 就是修改一个bug 然后冒出来更多bug吧
展开
-
tf.image.non_max_suppression()会扩充数据
tf.image.non_max_suppression( boxes, scores, max_output_size, iou_threshold=0.5, score_threshold=float('-inf'), name=None )tf.image.non_max_suppression()很多文章都有提到:按照参数scores的降序贪婪的选择边界框的子集。删除掉那些与之前...原创 2020-05-22 16:03:54 · 332 阅读 · 0 评论 -
tf.add()不只是简单相加
tf.add()大多数用法都是,单个数字和单个数字的简单相加,例如:import tensorflow as tfx = tf.constant(2)y = tf.constant(1)sess = tf.Session()print(sess.run(tf.add(x, y)))输出:3但是它还有一种更重要的用法,很多文章都没有说,即按维度的相加,将一个与高维度矩阵的子维度与高维度的每一个维度相加,例如:import tensorflow as tfa = tf.consta原创 2020-05-20 11:54:46 · 3373 阅读 · 2 评论 -
tf.transpose()的通俗解释
tf.transpose( a, perm=None, name='transpose', conjugate=False)a:表示的是需要变换的张量perm:a的新的维度序列name:操作的名字conjugate:可选的,设置成True,那么就等于tf.conj(tf.transpose(input))主要来说perm属性perm的意思是张量的维度 i 将对应于输入维度 perm[i].解释一下什么意思:比如一个二维张量a,其形状为[2,3...原创 2020-05-11 16:56:11 · 447 阅读 · 0 评论 -
python +tnesorflow 使用tf.nn.conv2d ()为什么输入和权重的shape 不一样
基于python+tensorflow的深度学习中,数据的输入一般为[batch, in_height, in_weight, in_channel]权重格式一般为[ filter_height, filter_weight, in_channel, out_channels ],其中 filter_height 为卷积核高度,filter_weight 为卷积核宽度,in_channel 是图像通道数 ,和 input 的 in_channel 要保持一致,out_channel 是卷积核数量。.原创 2020-05-10 22:29:57 · 359 阅读 · 0 评论 -
线性回归和逻辑回归的总结、区别和做法步骤
一:线性回归1.线性回归的概念: 通俗的来讲线性回归就是对一系列数据进行拟合,并尽可能构建出一条可以拟合数据的数学模型,根据这个模型,可以通过输入测试数据来预测测试数据的结果。例如房价问题,通过已知的房屋位置,房屋面积,和房价拟合出一条数据模型,并通过此数据模型,输入房屋位置,房屋面积等信息来预测房价。2.线性回归的假设函数:线性回归的假设函数(θ是所求的参数,或者可以叫权重,x为所知的特...原创 2019-07-30 20:24:08 · 3564 阅读 · 0 评论 -
简明阐述神经网络的步骤以及总结
一:神经网络的通俗解释:首先神经网络分为多层,第一层为数据输入,我们将输入数据的这一层称为输入层,我们可以输入需要识别的图片,色块等信息。第二层为隐藏层,这里说是第二层是不准确的,因为隐藏层通常情况不止一层,隐藏层负责对数据进行处理,计算。最后一层为输出层,负责输出结果。层与层之间用一定的函数关系连接。二:神经网络的运算步骤:我们梳理一下层之间的关系以及层内部的逻辑运算。对于输入层和隐藏...原创 2019-08-05 20:12:40 · 1199 阅读 · 0 评论 -
那些年 我们走过的坑(持续更新) python
坑1:shuffle:()函数无返回值 array = np.random.shuffle(arr) 报错原因:该函数无返回值,不应该用一个变量来接它原创 2019-08-14 19:05:12 · 152 阅读 · 0 评论 -
Tenroflow 中的前向传播框架的返回值
使用Tensorflow框架,定义一组前向传播神经网络,设标签为(x0,x2,x3.....xn),其返回结果为(P(x1),P(x2),P(x3)...P(xn))这样一个n维向量,即数据集落在标签(x0,x2,x3.....xn)的概率,然后使用tf.argmax(logits,1),即返回这组概率向量中,最大的概率所在的位置,即第几个标签...原创 2019-08-27 19:37:48 · 123 阅读 · 0 评论