自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Lyn_Notes

Nothing to lose

  • 博客(20)
  • 收藏
  • 关注

原创 4.3 关于torch.flatten的笔记

先看函数参数:torch.flatten(input, start_dim=0, end_dim=-1)input: 一个 tensor,即要被“推平”的 tensor。start_dim: “推平”的起始维度。end_dim: “推平”的结束维度。首先如果按照 start_dim 和 end_dim 的默认值,那么这个函数会把 input 推平成一个 shape 为 [????]的tensor,其中 ???? 即 input 中元素个数。如果我们要自己设定起始维度和结束维度呢?我们要先来看

2021-08-03 13:48:48 394

转载 pytorch 中矩阵乘法总结

导语:这是一篇关于Pytorch中各类乘法操作的总结和使用说明。torch.dot():Computes the dot product (inner product) of two tensors.计算两个1-D 张量的点乘(内乘)。torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1]))out: tensor(7)torch.mm() , 其中 , , 输出 的维度是。该函数只用来计算两个2-D矩阵的矩阵乘法。mat1 = torch.randn(2,

2021-06-15 01:27:36 2334

原创 关于pytorch中@和*的用处

2021-06-15 01:23:50 442

转载 pytorch中backward()函数详解

最近由于实际需要在学习pytorch,作为深度学习中最为重要的反向传播计算,pytorch用非常简单的backward( )函数就实现了,但是在实现过程中对于其参数存在一些疑问,下面就从pytorch中反向传播求导的计算方式,backward( )函数参数来进行说明。这里首先还是放出backward( )函数的pytorch文档,因为整个说明主要还是围绕这个函数来进行的。 问题描述 从上面的文档可以看到backward函数有一个奇怪的参数:grad_tensors,在实现pytorch的官方教程中可

2021-06-14 13:48:40 5512 2

原创 tf.assign()、tf.assign_add()、tf.assign_sub()函数介绍和示例

tf.assign()、tf.assign_add()、tf.assign_sub()函数介绍和示例1. tf.assign(ref, value, validate_shape=True, use_locking=None, name=None)释义:将 value 赋值给 ref,即 ref = valueref,变量value,值validate_shape,默认 True,值 shape 需要与变量 shape 一致;若设为 False,则值 shape 覆盖变量 shapeuse_locki

2021-04-09 16:13:10 853

转载 tf.gather( )的用法

第一种用法: where(condition)的用法 where(condition, x=None, y=None, name=None)  condition是bool型值,True/False 返回值,是condition中元素为True对应的索引 例如: import tensorflow as tfa = [[1,2,3],[4,5,6]]b = [[1,0,3],[1,5,1]]condition1 = [[True,False,False], [Fals

2021-04-09 15:41:53 206

转载 多维高斯概率密度函数对协方差矩阵求导

转载https://www.cnblogs.com/ccienfall/archive/2016/11/09/6049021.html

2020-05-21 15:07:14 1414

转载 语言模型评价指标Perplexity

语言模型(Language Model,LM),给出一句话的前k个词,希望它可以预测第k+1个词是什么,即给出一个第k+1个词可能出现的概率的分布p(xk+1|x1,x2,...,xk)。在报告里听到用PPL衡量语言模型收敛情况,于是从公式角度来理解一下该指标的意义。 Perplexity定义PPL是用在自然语言处理领域(NLP)中,衡量语言模型好坏的指标。它主要是根据每个词来估计一句话出现...

2020-03-11 15:29:39 1466

原创 Leetcode 206:反转链表

反转一个单链表。示例:输入: 1->2->3->4->5->NULL输出: 5->4->3->2->1->NULL迭代:/** * Definition for singly-linked list. * public class ListNode { * int val; * ListNode ne...

2019-03-17 18:22:50 136

原创 剑指offer 5:替换空格

public class Solution { public String replaceSpace(StringBuffer str) { int numOfBlank = 0; for(int i=0;i<str.length();i++){ if(str.charAt(i) == ' ') ++numOfBla...

2019-03-17 15:15:35 129

转载 矩阵求导、几种重要的矩阵及常用的矩阵求导公式

一、矩阵求导  一般来讲,我们约定x=(x1,x2,...xN)Tx=(x1,x2,...xN)T,这是分母布局。常见的矩阵求导方式有:向量对向量求导,标量对向量求导,向量对标量求导。1、向量对向量求导2、标量对向量求导 3、向量对标量求导 其他的可以参考wiki:维基百科矩阵求导公式二、几种重要的矩阵1、梯度(Gradient) 2、雅克比矩阵(Jacobian ma...

2019-03-16 23:31:57 14987

原创 如何计算感受野(Receptive Field)

一、感受野的概念感受野指的是一个特定的 CNN 特征(特征图上的某个点)在输入空间所受影响的区域。感受野计算时有下面的几个情况需要说明:a)第一层卷积层的输出特征图像素的感受野的大小等于滤波器的大小;b)深层卷积层的感受野大小和它之前所有层的滤波器大小和步长有关系;c)计算感受野大小时,忽略了图像边缘的影响,即不考虑padding的大小。二、感受野计算公式1.公式一:从原始inp...

2019-03-14 18:49:21 12416 2

转载 (笔记)斯坦福机器学习第三讲--欠拟合与过拟合

本讲内容:1.locally weighted regression (局部加权回归算法)2.Probabilistic interpretation of linear regression  (线性回归的概率解释)3.Logistic regression    (逻辑回归算法)4.Digression Perceptron (感知器算法) ...

2019-03-07 16:48:20 230

原创 Leetcode 74:搜索二维矩阵

Leetcode 74:搜索二维矩阵题目描述:编写一个高效的算法来判断 m x n 矩阵中,是否存在一个目标值。该矩阵具有如下特性:1.每行中的整数从左到右按升序排列。2. 每行的第一个整数大于前一行的最后一个整数。示例 1:输入:matrix = [[1, 3, 5, 7],[10, 11, 16, 20],[23, 30, 34, 50]]target = 3...

2019-03-03 12:26:54 158

原创 Leetcode 240:搜索二维矩阵 II

Leetcode 240:搜索二维矩阵 II题目描述:编写一个高效的算法来搜索 m x n 矩阵 matrix 中的一个目标值 target。该矩阵具有以下特性:每行的元素从左到右升序排列。每列的元素从上到下升序排列。示例:现有矩阵 matrix 如下:[[1, 4, 7, 11, 15],[2, 5, 8, 12, 19],[3, 6, 9, 16, 22...

2019-03-03 12:08:21 213

原创 Leetcode 442:数组中重复的数据

Leetcode 442:数组中重复的数据题目描述:给定一个整数数组 a,其中1 ≤ a[i] ≤ n (n为数组长度), 其中有些元素出现两次而其他元素出现一次。找到所有出现两次的元素。你可以不用到任何额外空间并在O(n)时间复杂度内解决这个问题吗?示例:输入:[4,3,2,7,8,2,3,1]输出:[2,3]本人low解:没有任何额外空间。通过交换的方式,从头到尾扫描...

2019-02-28 23:46:43 529

转载 彻底理解样本方差为何除以n-1

    设样本均值为,样本方差为,总体均值为,总体方差为,那么样本方差有如下公式:    很多人可能都会有疑问,为什么要除以n-1,而不是n,但是翻阅资料,发现很多都是交代到,如果除以n,对样本方差的估计不是无偏估计,比总体方差要小,要想是无偏估计就要调小分母,所以除以n-1,那么问题来了,为什么不是除以n-2、n-3等等。...

2019-02-19 22:13:49 5994 1

原创 剑指offer—数组(1):数组中重复的数字

数组中重复的数字欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入题目描述:在...

2019-02-15 11:43:42 162

转载 谈谈HashCode的作用

前言Object提供给我们了一个Native的方法“public native int hashCode();”,本文讲讲Hash是什么以及HashCode的作用Hash先用一张图看下什么是HashHash是散列的意思,就是把任意长度的输入,通过散列算法变换成固定长度的输出,该输出就是散列值。关于散列值,有以下几个关键结论:1、如果散列表中存在和散列原始输入K相等的记录,那么K必定在...

2019-02-12 18:46:39 214

原创 聚类算法评价指标——Davies-Bouldin指数(Dbi)

    最近在做一个时空序列聚类的小项目,度量聚类优劣的指标使用到了DBI指数,所以开始学习了一下DBI指数,以下是我的理解和基于python3的实现:    戴维森堡丁指数(DBI),又称为分类适确性指标,是由大卫L·戴维斯和唐纳德·Bouldin提出的一种评估聚类算法优劣的指标。首先假设我们有m个时间序列,这些时间序列聚类为n个簇。m个时间序列设为输入矩阵X,n个簇类设为N作为参数传入算法。使...

2018-05-09 13:46:11 59544 16

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除