自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(48)
  • 资源 (1)
  • 问答 (1)
  • 收藏
  • 关注

原创 二分查找最左侧和最右侧target的index

【代码】二分查找最左侧和最右侧target的index。

2024-08-19 12:38:41 98

原创 位运算(1)

1.获取第i位的二进制数(只出现一次数字2):2.将第i位的二进制设为1(只出现一次数字2):3.int最低位为1的数(只出现一次数字3):

2024-08-18 21:24:28 143

原创 Policy-Based Reinforcement Learning(2)

公式(1)用于离散的情形, (2)用于连续的情形。

2024-06-10 20:48:13 165

原创 Policy-Based Reinforcement Learning(1)

这里使用梯度上升的方法,对于一个可观测状态s,更新。(这里将action A积分掉)这里如果策略函数。称为策略梯度(Policy Gradient)

2024-06-10 20:20:28 176

原创 Value-Based Reinforcement Learning(2)

上节已经提到了如果我们有DQN,那么agent就知道每一步动作如何做了,那么DQN如何训练那?这里面使用TD算法。,做梯度下降是为了让loss减少。

2024-05-26 21:30:30 167

原创 Value-Based Reinforcement Learning(1)

Discounted Return(未来的reward,由于未来存在不确定性,所以未来的reward 要乘以。由于存在action,和state随机性,现在想消除随机性,可以求。可以给任意的动作打分,agent可以根据。,表达了action的随机性。(监督回报,用来训练DQN),表达了转移状态的随机性。的打分,做最有利的动作。,那么每一步最好的动作。(DQN给出) ->

2024-05-26 20:57:05 183

原创 GAT精译 - 2

最近发表的归纳学习方法---GraphSage在每一个节点采集相同的数量的样本,来保证计算轨迹的一致性。LSTM假设了存在一个节点的邻居节点有一个连续的序,但是作者用了一个随机的序列喂到LSTM。我们的技术不存在这些点,因为GAT会使用节点的所有邻居节点(这与GCN是一样的),而且不存在随机序的问题。然而,应该注意的是,与之前考虑的MoNet实例相比,我们的模型使用节点特征进行相似性计算,而不是节点的结构属性(假设预先了解图结构)。应用多头机制,存储和参数需求K,独立的头计算是并行的。

2024-04-14 21:57:50 203 1

原创 梯度下降小结

3.小批量梯度下降(Mini-batch Gradient Desent , MBGD)小结:BGD稳定,但是计算的慢;SGD不稳定,但是计算的快,MBGD综合了BGD和SGD。

2024-04-10 17:46:14 127

原创 激活函数

理论上,Leaky Relu有Relu的所有优点,外加不会有Dead Relu的问题,但是在实际操作当中,并没有完全证明Leaky Relu总好于Relu。(2)Dead Relu :某些神经元可能永远不会被激活,导致相应的参数永远不能被更新。(1)易造成梯度消失,0-0.25,连续相乘,参数无法继续更新。单调性:当激活函数是单调的,能保证单层网络的损失函数是凸函数。非线性:激活函数非线性时,多层神经网络可逼近所有函数。(3)幂运算复杂,训练时间长。(2)输出非0均值,收敛慢。(1)输出非0均值,收敛慢。

2024-03-21 16:04:54 224

原创 GAT精译 - 1

在一个更一般的形式下,这个模型允许任何一个节点去影响其他的节点。为了强化自注意力机制的学习过程,我们采用多头的注意力机制。我们将描述一个单独的图注意力层,因为单层在我们实验中GAT架构。为了能够尽可能的将特征映射到高维的特征,至少需要一个线性的转换。,在我们的实验中,这些是i的第一圈的邻居(也包括i自己)。,N是节点的数量,F是每一个节点的特征数量。获得,归一化的注意力系数之后,我们用来计算系数的线性组合,再做激活(在我们实验中,注意力机制是一个单层的前向神经网络,参数的权重。我们层的输入是节点的特征,

2024-03-21 16:04:06 276

原创 GCN 翻译 - 3

正如在introduction里面提到的,我们应用数据X和图结构的邻接矩阵锁提出的模型f(X,A)在图结构上进行半监督的学习。我们希望能够利用这套模型能够预测临界矩阵中的不在X中的非label数据,例如引用网络中两个文本的链接或者是知识图谱中的关系。在接下来的讨论中,我们主要考虑一个2层的GCN网络用来做半监督的节点分类的学习。时间中,我们使用TensorFlow在GPU上进行训练 (9)中的稀疏矩阵乘法,(9)的计算复杂度为。这里简单引入一个例子,利用图上信息传播的方式的一个灵活的模型。

2024-03-10 21:25:21 279

原创 GCN 翻译 - 2

这种一阶的线性方式,我们仍然可以罗列多层的卷积层,这不局限于切比雪夫多项式。我直觉期望这样的模型能够对于点的度数很高的分布(例如,社交网络、引用网络、知识图谱和其他一些真实世界的数据库)的图结构起到减轻过拟合的作用。并且,对于一定的计算资源,这种一阶的layer-wise方式能够建立更深的网络。在这一章节,我们为这种特殊的的图基础的神经网络模型f(X, A)提供理论上的支持。现在,如果我们将层的卷积操作K=1,即图谱域拉普拉斯矩阵L的限行函数。计算公式(3)是非常繁重的计算,因为特征向量的矩阵U的乘法是。

2024-03-07 20:51:14 313

原创 GCN 翻译 - 1

GCN 翻译

2024-02-29 21:05:14 236

原创 Dirichlet Process 5

所以同理我们有如下的predictive distribution,k代表有k个partition。中国餐馆过程(Chinese Restaurant Process)将 (2)带入 (1)(2式中的前两项消掉,只剩下第三项;最终属于某一个partition 里面,其实我们并不关心。这里面是知道已有的变量的值,能够推测新的变量值。属于哪一个partition里面。数据哪个partition的值用。具体的数值是多少,我们关心的是。

2024-01-23 22:10:28 378

原创 Dirichlet Process 4

直接将G带入有些困难,这里面使用了狄利克雷分布和多项式分布共轭的性质。相等,那么我们能够相信这a个对应的样本x属于同一类的。可以看到新的DP的base measure。,和之前的H相比,新加了一个离散的项。要从一个离散的分布,即G中产生。每一个样本都有自己对应的。,有多少个样本就有多少个。

2024-01-23 22:10:12 382

原创 Dirichlet Process 3

本节来介绍如何构造G,这里使用Stick-breaking construction算法。以此类推,可以得到无数个item,且。对于G,这里面有2个变量,一个是。,即采样的位置,一个是。

2024-01-23 22:10:00 376

原创 Dirichlet Process 2

都是H的一个随机测度,这些测度应该有一定的关系,这里面将H分为d个区域,d可以是任意值,每个区域。,G是H的一个测度,这个测度可以计算无数次,每次都会得到一个随机测度。,即Dirichlet Distribution(狄利克雷分布)

2024-01-23 22:09:40 379

原创 Dirichlet Process 1

如下图的一个简单样本,如果我们不知道图中的样本是出自几个高斯分布,那我们如果求这个图中的样本应该归属于几个高斯分布那?直观看上去,有同学可能说是4个,有同学可能说是2个,然而如果是高维数据那?,这里面的DP代表Dirichlet Process,即狄利克雷过程,这里面的。又出自分布H,H可能是连续的也可能是离散的,可以同归DP产生G的一个随机测度。那么我们想通过一种方法,获得H的一个离散的版本,即。都对应一个产生它的分布,且这个分布的参数为。,那么G就是一个值,如果。是一个连续的分布,那么。

2023-07-03 15:14:52 131

原创 N个点,求距离最近的两个点---分治策略(2)

动态规划

2023-01-07 09:58:36 369

原创 N个点,求距离最近的两个点---分治策略(1)

动态规划

2023-01-06 20:11:33 2516

原创 主定理(Master Theorem)推导和理解(3)

使用递归的方法解决主定理无法解决的case

2022-11-30 22:15:07 287

原创 主定理(Master Theorem)推导和理解(2)

主定理应用和理解

2022-11-07 19:12:16 1066

原创 主定理(Master Theorem)推导和理解(1)

主定理推导

2022-11-06 18:13:18 903 1

原创 MCMC(1)--- Sample

采样就是从一个已知(离散、连续)分布里面采集若干个样本,若干个样本的频度特征要符合分布的频率特征。通常的做法,例如,一个分布的cdf ,的反函数是,,在[0,1]区间取随机数均匀采样,能够得到一批(y,x),这批(y,x)就是采集的样本。例如,y = N(0,1)的cdf在[0,1]上均匀采样,大概率采到的样本都在[-2,2]之间。...

2022-07-11 10:28:58 188

原创 MCMC (11) --- Markov Chain Monte Carlo (6) --- Gibbs(2)

简单来说,吉布斯抽样是单分量Metropolis-Hastings的特殊情况,特殊在哪哪?特殊在这个时候 这个时候的接收率: 由于 带入,能够得到:吉布斯抽样算法过程:输入:目标概率分布的密度函数p(x),函数f(x);输出:p(x)的随机样本,函数样本均值;参数:收敛步数m,迭代步数n。(1) 初始化。给出初始样本(2) 对i循环执行设第(i-1)次迭

2022-07-10 22:58:24 259 1

原创 MCMC (10) --- Markov Chain Monte Carlo (5) --- Gibbs (1)

本节先介绍一个概率,满条件分布对于为k维随机变量。如果条件概率分布中所有k个变量全部出现,其中,,,那么称这种条件概率分布为满条件概率分布。满条件概率分布有以下性质:(1) 对于任意的和任意的,有(2)...

2022-07-10 22:57:40 730

原创 MCMC (9) --- Markov Chain Monte Carlo (4) --- MH (3)

抽样的时候我们不能指望每次都是从一元分布里面进行抽样,如果是多元联合分布进行抽样,问题仿佛一下子就复杂了很多。Metropolis-Hastings算法的解决思路是可以对多元变量的每一个变量的条件分布依次分布进行抽样,从而实现对整个多元变量的一次抽样,这种抽样方法称为单分量Metropolis-Hasting算法。例如,, i = 1, 2, ...., n其中,是随机变量的第j个分量,j = 1,2, ..., k。单分量Metropolis-Hastings算法由下面的k步迭代实现Metropolis-

2022-07-10 22:56:50 181

原创 MCMC (7) --- Markov Chain Monte Carlo (2) --- MH (1)

上一节已经讲到,如果能够构建一个马尔可夫链,让这个马尔可夫链的平稳分布为抽样的目标分布p(x)。在这个马尔可夫链上随机游走就可以进行采样。那么问题来了,如何构建这样的马尔可夫链那?一个方法是定义特殊的转移核函数或者转移矩阵,构建可逆马尔可夫链,常用的马尔可夫链蒙特卡洛方法有Metropolis-Hastings算法,吉布斯抽样,本节终点介绍Metropolis-Hastings算法。Metropolis-Hastings算法采用的特殊转移核为的马尔可夫链:其中称为建议分布(proposal distribu

2022-07-10 22:56:02 468

原创 MCMC(8) --- Markov Chain Monte Carlo (3) --- MH (2)

上一节提到了,如果我们能够找到一个合适的,就能够进行MCMC进行采样了。那么如何找到那?其实并不难,只要找到一些特殊的能够满足条件就可以了。 形式1: 对于这种形式 就可以简化为 ,这种形式称为Metropolis选择基于以上形式,特例1: 特例2:。特例2其实还是可以有不同的选择case,譬如, 形式2: .对于

2022-07-10 22:55:04 216

原创 MCMC(6) --- Markov Chain Monte Carlo (1)

上一节说了马尔可夫链的一些性质。其中由遍历定理,从不同的起始点出发,通过大量的随机游走,采集的样本,都会收敛到同一平稳分布。那这就又给了一个采样的思路:在随机变量x的状态空间S上定一个一个满足遍历定理的马尔可夫链X={},使其平稳分布就是抽样的目标分布p(x).然后在这个马尔可夫链上进行随机游走,每个时刻得到一个样本。根据遍历定理,当时间趋于无穷时,样本的分布趋近平稳分布,样本的函数均值趋近于函数的数学期望。所以,当时间足够长时(时刻大于某个正整数m),在之后的时间(时刻小于等于某个正整数n, n > m)

2022-07-10 22:54:18 172

原创 MCMC(5) --- Markov Chain (2)

上一节介绍了Markov Chain 的基本概率,本节介绍Markov Chain的基本特性。平稳分布,设有马尔可夫链X = {},其状态空间为S,转移概率矩阵为P = (),如果存在状态空间S上的一个分布使得,则称为马尔可夫链X = {}的平稳分布。给定一个马尔可夫链X = {},状态空间为S,转移概率矩阵为P=(),则分布为X的平稳分布的充分必要条件是是下列方程组的解: 证明略不可约,设有马尔可夫链X = {},状态空间为S,对于任

2022-07-10 22:50:28 1138

原创 MCMC(4) --- Markov Chain (1)

随机过程,,表示时刻t的随机变量,t=0,1,2,...。每个随机变量的取值集合相同,称为状态空间,表示为S。随机变量可以是离散的,也可以是连续的。以上随机变量的序列构成随机过程(Stochastic Process)。 马尔可夫性,如果随机变量只依赖于,而不依赖于过去的随机变量,这一性质称为马尔可夫性,即: 马尔科夫链,具有马尔可夫性的随机序列X = {}称为马尔科夫链(Markov Chain),也称为马尔可夫过程(Markov Process)。 转移

2022-07-10 22:49:46 285

原创 MCMC(3) --- Monte Carlo method (2)

上一节说了蒙特卡洛方法的一个应用-计算积分(数学期望),本节总结另外一个应用---采样。一般的蒙特卡洛法有直接采样法、接受-拒绝抽样法、重要性抽样法等。接受-拒绝抽样法、重要性抽样法适合于概率密度复杂(如密度函数由多个变量,各变量相互不独立,密度函数形式复杂),不能直接抽样的情况。本节主要介绍接受-拒绝法。 假设有随机变量x,取值,其概率密度函数为p(x)。目标是得到该概率分布的随机样本。假设p(x)不可以直接抽样。接受-拒绝法的基本思路是,找一个可以抽样的分布,称为建议分布(proposa

2022-07-10 22:49:05 198

原创 MCMC(2)--- Monte Carlo method(1)

Monte Carlo method : 蒙特卡罗法是通过基于概率模型的抽样进行数值近似计算的方法,蒙特卡洛法可以用于概率分布的抽样、概率分布数学期望的估计、定积分的近似计算步骤分2步:1.基于概率模型做随机抽样;2.对数值做近似计算。由于计算数学期望也是在计算积分,实际上利用求数学期望的方法求积分用途:1.概率分布的抽样;2.利用求数学期望求定积分的近似计算假设随机变量x,取值,其概率密度函数为p(x),f(x)为定义在上的函数,目标是求函数f(x)关于密度函数p(x)的数学期望针对这个问题,蒙特卡洛法按

2022-07-10 22:48:16 168

原创 如何更加有效的操控内存

前两天去一家公司面试,在面试的过程中二面的面试官说,如果来我们这里工作,那么还得好好看看《计算机体系结构》,因为我们这边对于算法的优化是需要考虑到CPU Cache这个层级的。之前在公司内部的分享会上,有同事分享过内存相关的知识,同时自己在上学的时候也真正读过DRAM Controller的Verilog源码,那么自己就结合之前同事分享的资料和自己以前的一些知识,并且通过查找一些资料,希望把这一块...

2019-06-04 17:13:27 599

原创 S_Dbw validation公式解析

S_Dbw validation在众多论文中被认为是最好的对无监督学习(聚类)的验证,这个验证方法中包括一些比较晦涩的数学公式,现在以下做一下介绍: 1.stdev (average standard deviation of clusters):表示一个数据集各个cluster的平均偏离 公式为: 2.density(u):用来表征...

2019-04-23 17:17:01 2056 5

原创 逻辑回归中阈值为什么选在0.5的位置

不知道小伙伴们有没有过这样的疑问,就是为什么逻辑回归中的分类阈值为什么选在0.5的位置,我做了一个数学上的推倒,希望对大家有帮助

2019-04-22 14:08:47 7056 1

原创 斗地主出现王炸的概率有多少?

之前在知乎上看到这道题,尝试着用概率论的知识解答一下。设Z = {小明抓到王炸};设= {扣牌底下3张牌没有王, 且有一手牌中有2张王};设= {扣牌底下3张牌有1张王,且有一手牌中有1张王};设= {扣牌底下3张牌有2张王,且任意一手牌};P() = = 272/2862P() = = 306/2862P() = = 6/2862设...

2018-12-04 11:55:58 4871

原创 shell、操作系统和内核

之前在知乎上回答过这个问题“shell、操作系统和内核是一回事吗?”,现在也在blog上总结一下内核需要做的工作:进程管理(创建进程、进程调度等)、进程间通信(管道、信号等)、文件操作(在硬盘上以我们熟悉的文件的形式创建文件,读文件,写文件等和保存修改等),内存管理(段、页,线性地址到物理地址、进程共享页面),网络(TCP/IP,和远端的计算机收发消息的协议),缓冲区(内存与外设之间的cach...

2018-12-03 07:51:35 2315

原创 CPU Cache翻译

        CPU高速缓存[1]是由计算机的中央处理单元( CPU )用来降低从主存储器访问数据的平均成本(时间或能量)的硬件高速缓存。高速缓存是一种更小、更快的存储器,更靠近处理器核心,存储来自常用主存储器位置的数据拷贝。大多数CPU具有不同的独立高速缓存,包括指令和数据高速缓存,其中数据高速缓存通常被组织为更多高速缓存级别( L1、L2等)的层次结构。        所有现代(快速) ...

2018-11-29 17:22:40 624

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除