函数用法
无尽的沉默
stay foolish,stay hungry
展开
-
Python product函数介绍
通过 from itertools import product 引入product函数。Product函数可以实现对矩阵做笛卡尔积import itertoolsfor item in itertools.product([1,2],[10,20]): print(item)'''(1, 10)(1, 20)(2, 10)(2, 20)'''iterables是可迭代对象,repeat指定iterable重复几次,即:product(A,repeat=3)等价原创 2022-03-24 14:00:56 · 5385 阅读 · 0 评论 -
Pytorch上下采样函数--interpolate()
torch.nn.functional.interpolate实现插值和上采样上采样:可以使你训练的图片分辨率变成你想要的更大的分辨率将输入图片input image进行rescale到一个想要的尺寸,而且计算每个点的像素点,使用如双线性插值bilinear等插值方法对其余点进行插值。torch.nn.functional.interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None)参原创 2022-03-13 16:59:23 · 7099 阅读 · 0 评论 -
argparse.ArgumentParser()的用法
argparse.ArgumentParser 此模块用来解析命令行参数import argparse#(1)创建一个ArgumentParser()对象parser = argparse.ArgumentParser()#(2) 添加参数parser.add_argument("parg") # 位置参数,这里表示第一个出现的参数赋值给parg,相当于args的变量parser.add_argument("--digit",type=int,help="输入数字") # 通过 --e.原创 2021-12-03 11:11:21 · 2970 阅读 · 0 评论 -
model.parameters(),model.state_dict(),model .load_state_dict()以及torch.load()
一.model.parameters()与model.state_dict()model.parameters()与model.state_dict()都是Pytorch中用于查看网络参数的方法一般来说,前者多见于优化器的初始化,例如:后者多见于模型的保存,如:当我们对网络调参或者查看网络的参数是否具有可复现性时,可能会查看网络的参数pretrained_dict = torch.load(yolov4conv137weight)model_dict = _model.st原创 2021-09-29 16:47:11 · 11607 阅读 · 0 评论 -
torch.mean函数和torch.max函数
一.torch.mean函数先来看示例:x=torch.arange(15).view(5,3)x_mean=torch.mean(x,dim=0,keepdim=True)x_mean0=torch.mean(x,dim=1,keepdim=True)print('before bn:')print(x)print('x_mean:')print(x_mean)print('x_mean0:')print(x_mean0) before bn: 0 1 2原创 2021-09-28 16:04:25 · 3043 阅读 · 0 评论 -
Keras model.predict(X_test, batch_size=32,verbose=1)和model.predict_classes(X_test,verbose=1)函数的解析
model.predict(X_test, batch_size=32,verbose=1)参数解析:X_test:为即将要预测的测试集batch_size:为一次性输入多少张图片给网络进行训练,最后输入图片的总数为测试集的个数verbose:1代表显示进度条,0不显示进度条,默认为0返回值:每个测试集的所预测的各个类别的概率示例:# 各个类别评估(X_test为10000个数据集)print("[INFO] evaluating network...")predict原创 2021-07-01 18:07:23 · 34268 阅读 · 4 评论 -
tf.placeholder函数的用法
Tensorflow中的palceholder,中文翻译为占位符 在代码层面,每一个tensor值在graph上都是一个op,当我们将train数据分成一个个minibatch然后传入网络进行训练时,每一个minibatch都将是一个op,这样的话,一副graph上的op未免太多,也会产生巨大的开销;于是就有了tf.placeholder(),我们每次可以将 一个minibatch传入到x = tf.placeholder(tf.float32,[None,32])上,下一次传入的x都替换掉上...原创 2021-06-23 23:37:14 · 22083 阅读 · 2 评论 -
np.argsort()函数
定义一个一维数组>>> a=[2,-1,4]>>> a=np.array(a)>>> b=np.argsort(a) #返回的是数组a中从小到大排列的值对应的index(索引)>>> barray([1, 0, 2], dtype=int64)a[1]=-1最小,b[0]=1, 即a[b[0]]=-1 ; a[2]=4最大,b[2]=2,即a[b[2]]=4最大类似于np.argsort()[num]的形式..原创 2021-05-31 17:01:45 · 3913 阅读 · 0 评论 -
np.nonzero()函数的解析
np.nonzero函数是numpy中用于得到数组array中非零元素的位置(数组索引)的函数。返回数组a中非零元素的索引值数组。(1)只有a中非零元素才会有索引值,那些零值元素没有索引值;(2)返回的索引值数组是一个2维tuple数组,该tuple数组中包含一维的array数组。其中,一维array向量的个数与a的维数是一致的。(3)索引值数组的每一个array均是从一个维度上来描述其索引值。比如,如果a是一个二维数组,则索引值数组有两个array,第一个array从行维度来描述索引值;第二个原创 2021-05-26 20:12:52 · 8401 阅读 · 0 评论 -
tf.reshape(inputs, [-1,dim])的理解
示例:import tensorflow as tflenth = tf.reshape(30,shape=[-1]) #变成一维张量lenth2 = tf.reshape(30,shape=[]) #变成标量了lenth3 = tf.reshape([30],shape=[]) #变成标量了with tf.Session() as sess: sess.run(tf.global_variables_initializer()) a = sess.run(lenth)转载 2021-05-25 20:44:14 · 1156 阅读 · 0 评论 -
tf.truncated_normal的用法
tensorflow函数用法一、tf.truncated_normal的用法tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) :shape表示生成张量的维度(a * a),mean是均值,stddev是标准差这个函数产生正态分布,均值和标准差自己设定。这是一个截断的产生正态分布的函数,生成的值服从具有指定平均值和标准偏差的正态分布,换句话说,产生的值如果与均值的差值大于两倍转载 2021-05-25 20:16:28 · 5871 阅读 · 0 评论 -
tf.pad函数功能介绍
tf.pad()函数主要是对张量在各个维度上进行填充,该函数的参数如下所示:pad( tensor, paddings, mode='CONSTANT', name=None)其中:tensor是待填充的张量paddings指出要给tensor的哪个维度进行填充,以及填充方式,要注意的是paddings的rank必须和tensor的rank相同mode指出用什么进行填充,’CONSTANT’表示用0进行填充(总共有三种填充方式,本文用CONSTANT予以说转载 2021-05-25 19:59:40 · 511 阅读 · 0 评论 -
input.get_shape()的用法
input.get_shape()首先imput是一个张量,如果不是一个张量使用get_shape()会报错返回的值l类型类似于元组的tensorshape示例:>>> input = tf.constant([[0,1,2],[3,4,5]])>>> print(input.get_shape())(2, 3)>>> print(type(input.get_shape()))<class 'tensorflow.pyt转载 2021-05-25 17:17:17 · 1202 阅读 · 0 评论 -
tf.expand_dims()和tf.squeeze()的用法详解
tf.expand_dimstf.expand_dims( input, axis=None, name=None, dim=None)给定的张量input,该操作插入尺寸索引处的1维axis的input的形状。维度索引axis从零开始;如果您为其指定负数,axis则从末开始算起。如果要将批次尺寸添加到单个元素,此操作很有用。例如,如果您有一个shape的图像[height, width, channels],则可以用制作一批1张图像expand_dims(image, 0),这将使..原创 2021-05-17 17:55:32 · 6299 阅读 · 0 评论 -
tf.reduce_max()函数的用法详解
tf.reduce_max()函数tf.reduce_max( input_tensor, axis=None, name=None, keepdims=False #是否保持矩形原狀)参数解释:input_tensor:输入数据,tensor、array、dataframe 都可以axis:表示维度,从0开始表示最外层维度,也可以用-1表示最内层维度; [0, [1, [2, [3,[...]]]]],或者[[[[[...], -...原创 2021-05-17 17:26:45 · 15357 阅读 · 1 评论 -
tf.boolean_mask()的详细用法
tf.boolean_mask 的作用是 通过布尔值 过滤元素def boolean_mask(tensor, mask, name="boolean_mask", axis=None): """Apply boolean mask to tensor."""参数解释:tensor:被过滤的元素列表或数组mask:一堆 bool 值,它的维度不一定等于 tensorreturn: mask 为 true 对应的 tensor 的元素当 tensor 与 mask 维度一致时,r原创 2021-05-17 16:55:13 · 7950 阅读 · 0 评论 -
tf.gather( )的详细解析
tf.gather()函数tf.gather()该接口的作用:就是抽取出params的第axis维度上在indices里面所有的index tf.gather( params, indices, validate_indices=None, name=None, axis=0) '''Args: params: A Tensor. The tensor from which to gather values. Must be at leas...原创 2021-05-17 16:32:33 · 8996 阅读 · 3 评论