一些python语句查询

  1. TfidfTransformer
  2. numpy.iinfo
  3. scipy.sparse.issparse:判断是否稀疏矩阵
  4. np.where
  5. *args和**kwargs
  6. .ipynb文件转.py文件的方法: jupyter nbconvert --to script xxx.ipynb
  7. isin
  8. groupby
  9. tf.placeholder()
  10. np.vstack()
  11. scipy.sparse.coo_matrix
  12. sklearn.cluster.SpectralClustering
  13. sklearn.neighbors
  14. weighted_cross_entropy_with_logits
  15. tf.reduce_mean
  16. tf.name_scope用法
  17. sess.run()
  18. sess.run(tf.global_variables_initializer())
  19. Update()
  20. tf.get_collection()
  21. lambda x: x
  22. layers.GraphConvolutionSparse
  23. self.__class__.name
  24. super()
  25. torch.backends.cudnn.deterministic = True
    torch.backends.cudnn.benchmark = False使代码具有可重复性
  26. argparse.ArgumentParser 模块
  27. torch.manual_seed(seed)
  28. 将list转换成NumPy数组: b=np.numpy(a)
  29. tf.tensordot
  30. tf.concat()
  31. tf.expand_dims
  32. scipy.sparse.coo_matrix、csr_matrix、lil_matrix、dia_matrix
  33. tf.train.exponential_decay()
  34. tf.Variable中trainable作用: 如果为True,则会默认将变量添加到图形集合GraphKeys.TRAINABLE_VARIABLES中。此集合用于优化器Optimizer类优化的的默认变量列表,如果为False则在训练时不会更新该值。
  35. get_ipython()
  36. (1) torch.mul()是矩阵的点乘,即对应的位置相乘,返回的还是个矩阵
    (2) torch.dot()类似于mul(),它是向量的对应位相乘再求和,返回一个tensor数值
    (3) torch.mm()是矩阵相乘
    (4) torch.mv()是矩阵和向量相乘,类似于torch.mm()
  37. (1) np.dot如果参与运算的两个一维数组,那么得到的结果是两个数组的内积;如果参与运算的是两个二维数组,那么得到的结果是矩阵乘积,两个参与运算的矩阵需要满足矩阵乘法的规则,但是官方更推荐使用np.matmul()和@用于矩阵乘法
    (2) *和np.multiply()方法是针对的是标量的运算,当参与运算的是两个数组时,得到的结果是两个数组进行对应位置的乘积,输出的结果与参与运算的数组或者矩阵的大小一致。
    (3) matmul是matrix multiply的缩写,所以即是专门用于矩阵乘法的函数。另外,@运算方法和matmul()则是一样的作用,相当于简便写法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值