语法
文章平均质量分 55
devil_son1234
这个作者很懒,什么都没留下…
展开
-
【Torch API】pytorch 中torch.all函数详解
pytorch 中torch.all函数详解原创 2023-03-02 10:30:42 · 1912 阅读 · 0 评论 -
【pytorch 优化器】ReduceLROnPlateau详解
【pytorch 优化器】ReduceLROnPlateau详解转载 2023-02-21 15:53:32 · 8161 阅读 · 0 评论 -
【Torch tensor】torch中的数据类型和相互转换
torch中的数据类型和相互转换转载 2023-02-15 15:53:06 · 3892 阅读 · 0 评论 -
【scipy】rankdata()函数详解
rankdata()函数详解转载 2023-02-14 15:29:03 · 1480 阅读 · 0 评论 -
【Torch API】Categorical类详解
Categorical类详解转载 2023-02-10 21:14:52 · 1245 阅读 · 0 评论 -
【python】集合set详解(超详细)
集合set详解转载 2023-02-08 11:05:06 · 21786 阅读 · 0 评论 -
【Torch API】pytorch中的torch.mm(),torch.bmm(),torch.matmul() 函数详解
pytorch中的torch.mm(),torch.bmm(),torch.matmul() 函数详解转载 2023-02-07 18:21:50 · 389 阅读 · 0 评论 -
【Torch API】pytorch中的torch.argsort() 函数详解
torch.argsort() 函数详解转载 2023-01-18 14:10:17 · 957 阅读 · 0 评论 -
【Numpy API】np.random.choice函数解析
np.random.choice函数解析转载 2023-01-04 16:14:43 · 497 阅读 · 0 评论 -
【Torch API】pytorch中的torch.where()函数详解
pytorch中的torch.where()函数详解转载 2023-01-04 15:37:07 · 11806 阅读 · 0 评论 -
【Torch API】pytorch中的torch.topk() 函数详解
pytorch中的torch.topk() 函数详解转载 2022-12-27 16:32:00 · 363 阅读 · 0 评论 -
【Torch API】pytorch中的torch.sort()函数解析
torch.sort介绍转载 2022-12-16 11:28:04 · 553 阅读 · 0 评论 -
【Torch API】torch.chunk()用法详解
torch.chunk()用法详解转载 2022-12-07 14:11:01 · 1295 阅读 · 0 评论 -
【Torch API】torch.unique()用法详解
torch.unique()方法简介转载 2022-11-28 16:06:37 · 1335 阅读 · 0 评论 -
【Torch API】torch.split()用法详解
torch.split()用法详解转载 2022-11-23 19:27:52 · 1099 阅读 · 0 评论 -
【Torch API】torch.nonzero用法详解
torch.nonzero详解转载 2022-11-23 14:53:04 · 1212 阅读 · 0 评论 -
【Torch API】torch.index_select()用法详解
torch.index_select()用法详解转载 2022-11-23 09:48:59 · 5319 阅读 · 0 评论 -
【Torch API】torch.gather()用法详解
gather用法说明转载 2022-11-22 10:19:48 · 337 阅读 · 0 评论 -
【Torch_scatter API】关于scatter_add函数的用法
按照上述图示来看,需要注意的几点就是index的数值和维度分别对应的是self和src的取值。转载 2022-09-08 17:34:53 · 1748 阅读 · 0 评论 -
【Tensorflow】tf.gather( )的用法
tf.gather(params,indices,axis=0)从params的axis维根据indices的参数值获取切片如上图所示,params一共6个维度,indices为[2,1,3,4]被取了出来。转载 2021-11-03 10:08:32 · 205 阅读 · 0 评论 -
【python】range()函数
python range()函数可以创建一个整数列表,一般用在for循环中。函数语法range(start, stop[,step])参数说明:start:计数从start开始,默认是从0开始stop:计数到stop结束,但是不包括stop。step:步长,默认为1.实例:range(10)[0,1,2,3,4,5,6,7,8,9]range(1,11)[1,2,3,4,5,6,7,8,9,10]range(0,30,5)[0,5,10,15,20,25]range(0转载 2021-09-22 19:48:12 · 385 阅读 · 0 评论 -
【Tensorflow】numpy np.select()
np.select(condlist, choicelist, default=0)condlist:条件列表,元素是bool数组choicelist:列表,数组元素default:当所有条件都不满足时,用default值填上。condlist, choicelist的长度必须一致,每一个条件都要进行一次元素选择或者操作。举例:...转载 2021-06-03 09:22:27 · 223 阅读 · 0 评论 -
【Tensorflow】tf.reduce_sum()方法深度解析
首先看一下reduce_sum及其参数的注释 :def tf.reduce_sum(input_tensor, axis=None, keepdims=False, name=None)转载 2021-06-02 22:24:07 · 1101 阅读 · 0 评论 -
np.random.permutation()解析
np.random.permutation():随机排列序列。例1:对0-5之间的序列进行随机排序例2:对一个list进行随机排序多维度的咋回事?a矩阵输出为:现在看c矩阵,我运行了两次:第一次运行结果:然后,我又运行了一次:通过这个例子可以看出,对于一个多维的输入,只是在第一维上进行了随机排序。对这个这个3×3矩阵来说,只是对行进行随机排序。...转载 2020-09-22 11:12:44 · 157 阅读 · 0 评论 -
降低学习率torch.optim.lr_scheduler.ReduceLROnPlateau类
当网络的评价指标不在提升的时候,可以通过降低网络的学习率来提高网络性能。所使用的类class torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)其中optimer指的是网络的优化器 mo转载 2020-09-22 10:55:19 · 1422 阅读 · 0 评论 -
【Pytorch】详解RNN网络中文本的pack和pad操作
1. 引言RNN模型一般设定固定的文本长度(text sequence length,可理解为文本序列在时间维度上的步数 time step),以保证网络输出层数据维度的一致性。但在训练和测试时,难以保证输入文本长度的一致性,因此常常需要截断操作(即将超过预设长度的文本截断)和pad操作(即对不足预设长度的文本进行补0填充)。pad操作需满足:(1)pad后,不足预设长度的文本用相同特征维度的0填充;(2)pad的部分不参与forward和backward计算。Pytorch中,在文本数据...转载 2020-09-18 10:57:37 · 1016 阅读 · 0 评论 -
如何使用Numpy.identity()
Numpy.identity()的document. 输入n为行数或列数,返回一个n*n的对角阵,对角线元素为1,其余为0。dtype可选,默认为float格式。若dtype设为“bool”,则返回对角线元素为True其余元素为Flase的方阵。a = numpy.identity(3,dtype=bool)print(a)[[ True False False][False True False][False False True]]...转载 2020-09-07 19:52:29 · 192 阅读 · 0 评论 -
csr_matrix参数解析
>>> indptr = np.array([0, 2, 3, 6])>>> indices = np.array([0, 2, 2, 0, 1, 2])>>> data = np.array([1, 2, 3, 4, 5, 6])>>> csr_matrix((data, indices, indptr), shape=(3, 3)).toarray()array([[1, 0, 2], [0, 0, 3],.转载 2020-09-07 18:55:02 · 140 阅读 · 0 评论 -
tf.expand_dims()使用
tf.expand_dims( input, axis=None, name=None, dim=None) 他所实现的功能是给定一个input,在axis轴处给input增加一个为1的维度。举个例子:# 't2' is a tensor of shape [2, 3, 5]tf.shape(tf.expand_dims(t2, 0)) # [1, 2, 3, 5]因为axis=0所以矩阵的维度变成1*2*3*5。同理如果axis=2,矩阵就会...转载 2020-07-20 14:27:47 · 309 阅读 · 0 评论 -
tf.equal的使用
tf.equal(A, B)是对比这两个矩阵或者向量的相等的元素,如果是相等的那就返回True,反正返回False,返回的值的矩阵维度和A是一样的import tensorflow as tfimport numpy as np A = [[1,3,4,5,6]]B = [[1,3,4,3,2]] with tf.Session() as sess: print(sess.run(tf.equal(A, B)))输出:[[ True True True False Fa..转载 2020-07-20 13:57:43 · 178 阅读 · 0 评论 -
tf.nn.top_k()与tf.nn.in_top_k()区别
tf.nn.top_k(input, k, name=None)这个函数的作用是返回 input 中每行最大的 k 个数,并且返回它们所在位置的索引。import tensorflow as tfimport numpy as npinput = tf.constant(np.random.rand(3,4))k = 2output = tf.nn.top_k(input, k)with tf.Session() as sess: print(sess.run(input))转载 2020-07-20 13:35:54 · 171 阅读 · 0 评论 -
Keras: GlobalMaxPooling vs. MaxPooling
Keras: GlobalMaxPooling vs. MaxPooling1D最大池化(1D Max Pooling) 2D最大池化(2D Max Pooling) 3D最大池化(3D Max Pooling) 应用场景 概念迁移 参考文献1D最大池化(1D Max Pooling)# MaxPooling1Dkeras.layers.MaxPooling1D(pool_size=2, strides=None, padding='valid', data_format='chan转载 2020-07-17 15:01:30 · 2144 阅读 · 1 评论 -
keras concatenate函数
concatenate从名字可以看出是连接两个数组,下面用一个小例子演示其用法import numpy as npimport cv2import keras.backend as Kimport tensorflow as tfa = K.variable(np.array([[1 , 2, 3]]))b = K.variable(np.array([[3 , 2, 1]]))c1 = K.concatenate([a , b] , axis=0)c2 = K.concatenat转载 2020-07-17 14:00:51 · 954 阅读 · 0 评论 -
SpatialDropout
Dropout()和SpatialDropout1D()的区别: 假设input_shape为batch_size, timesteps, features, Dropout(),Dropout()是在所有数据上dropout,SpatialDropout1D()会按对 features的某几个维度进行dropout,如图: 左图:Dropout(), 右图:SpatialDropout1D()...转载 2020-07-17 13:55:06 · 335 阅读 · 0 评论 -
Python list 按区间分组统计各组个数
一、需求假设有个 list:example_list =[95.0, 95.0, 97.0, 97.0, 97.0, 98.0, 99.0, 99.0, 101.0, 101.0, 101.0, 101.0, 101.0, 102.0, 102.0, 103.0, 103.0, 103.0, 104.0, 104.0, 104.0, 104.0, 104.0, 104.0, 104.0, 104.0, 105.0, 105.0, 105.0, 105.0, 106.0, 107.0, 107.0,.转载 2020-07-07 19:41:54 · 5634 阅读 · 1 评论 -
python异常
1.抓取已知异常:try: aexcept NameError as e: print("catch Error:",e) 2.捕获所有异常:try: aexcept: print("catch Error") 3.处理多个异常:try: f=open('1.txt') line=f.read(2) num=int(line) print(num)except IOError as e:转载 2020-06-11 10:30:27 · 96 阅读 · 0 评论 -
伯努利分布generator
import numpyn=1p = 0.5size = 100obs = np.random.binomial(n,p,size)如果设置n=1,size =100,则这个函数会变成重复一百次的bernouli分布,得到的是一个arrary例如:[0, 1, 1, 1, 0, 0, 1, 1, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0,0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 0, 1, 0, 0, 1, 0, 0, 0, 1,.转载 2020-06-10 13:48:15 · 447 阅读 · 0 评论 -
理解softmax函数
做过多分类任务的同学一定都知道softmax函数。softmax函数,又称归一化指数函数。它是二分类函数sigmoid在多分类上的推广,目的是将多分类的结果以概率的形式展现出来。下图展示了softmax的计算方法:下面为大家解释一下为什么softmax是这种形式。首先,我们知道概率有两个性质:1)预测的概率为非负数;2)各种预测结果概率之和等于1。softmax就是将在负无穷到正无穷上的预测结果按照这两步转换为概率的。1)将预测结果转化为非负数 下图为y=exp(x)的图像...转载 2020-06-02 15:21:14 · 520 阅读 · 0 评论 -
tf.concat实例用法与图解
tf.concat的参数为:tf.concat(values, axis, name='concat')其中的axis参数并不直观。下面的代码是官网给出的示例代码。t1 = [[1, 2, 3], [4, 5, 6]]t2 = [[7, 8, 9], [10, 11, 12]]tf.concat([t1, t2], 0) # [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]tf.concat([t1, t2], 1) # [[1,..转载 2020-06-01 15:45:28 · 629 阅读 · 0 评论 -
tf.nn.embedding_lookup()的用法
函数:tf.nn.embedding_lookup(params,ids,partition_strategy='mod',name=None,validate_indices=True,max_norm=None)参数说明:params: 表示完整的嵌入张量,或者除了第一维度之外具有相同形...转载 2020-06-01 13:51:24 · 250 阅读 · 0 评论