PNN文章理解

模型结构

从上到下进行解释

1、最后的输出为一个实数y属于[0,1],其计算为
yhat为输出结果
其中W3∈R1×D2,b3∈R为输出层的参数,l2∈RD2为第二隐藏层的输出,σ(x)为sigmiod激活函数:σ(x)=1/(1+e−x)。我们用Di来表示第i个隐藏层的维数。
2、第二层隐藏层的输出l2计算如下
在这里插入图片描述
这里采用relu作为激活函数,l1∈RD1是第一个隐藏层的输出。这里的l1为第一个隐藏层的输出,有lz和lp组成,lz为线性信号,lp为二次信号。
3、即l1的计算公式为

b1为bias vector。
接下来介绍张量的内积操作
在这里插入图片描述
首先对A、B两个矩阵进行乘积得到一个标量,基于此我们可以计算lz和lp。具体如下
在这里插入图片描述
这里面的W和z以及W和p为内积运算。其中,Wzn和Wpn为乘积层的权重,其形状分别由z和p决定。通过引入一个“1”常数信号,乘积层不仅可以产生二次信号p,还可以保持线性信号z,如结构图中Embeding的那个圈圈1所产生的p和z
在这里插入图片描述这里表示z和p的生成来源,fi属于RM,为字段i的嵌入向量,pij是交互影响的特征对,进行pij计算的时候,我们采用了两种方法,内积和外积,在之后会继续讨论。在这部分我们讨论第i个词的嵌入向量fi,其输出为
在这里插入图片描述x为多个词的输入特征相连,同时x[start:end]表示从start到end的one-hot编码。W0表示嵌入层的参数,同时在这里插入图片描述为第i个词的全连接参数。
最后是loss的计算,本文采用log loss,目前已被广泛于捕获两个概率分布之间散度,在这里插入图片描述,这里y是一个真实值,0/1,作为我们模型预测的结果。

IPNN内积PNN

这里我们采用的g为内积操作,对于常数信号(1)所计算的线性信号z表示计算lz,公式为在这里插入图片描述对于二次信息p,结合上面的lp计算在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述为lp的值。向量内积p和Wpn的交换律应该是对称的。N是输入字段的数字,M是超参数。基于以上计算的复杂性,可以通过矩阵的因子分解减少起计算复杂度,在这里插入图片描述将WN *p进行分解。其中,为方便起见,我们使用δi∈RM来表示一个由θi加权的特征向量fi,即δi=θifi。我们还有δn=(δ1…δN)。那么第一次分解为在这里插入图片描述,由这个公式对lp的计算进行分解。

外积的OPNN

向量内积取一对向量作为输入,输出一个标量。与此不同的是,向量外积取一对向量并生成一个矩阵。IPNN通过向量内积来定义特征交互作用,这部分我们讨论基于外积的神经网络(OPNN)。内积和外积的唯一区别在于外积在这里插入图片描述,而内积在这里插入图片描述,因此对于p中的每一个元素,pij属于方阵M*M。因此,这是外积时p的公式
在这里插入图片描述

综上为论文中关于公式以及数据的全部内容,具体需要根据代码结合进行实现,代码为tensorflow版本,如需pytorch,可百度哈哈哈

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Curious*

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值