衣服配型算法

Context-Aware Visual Compatibility Prediction

 

本文主要解决,根据两种衣服的上下文来判定两种衣服是否适配的问题,和以前网络不同的是,文中所用的网络为图网络(一般输入数据满足图结构的网络成为图网络)。

 

例如左边的是以往模型的风格匹配,右边的是本文中图结构的风格匹配。

 

网络结

最初使用的方法是,直接使用卷积抽取嵌入向量进行举例匹配,之后有人使用孪生网络进行改进,再后来使用triple Loss来进行运算,最近的改进主要是基于有文本条件的嵌入。 本文主要的图网络结构如下

两种图输入,然后使用encoder生成向量,然后在使用decoder计算分数。

 

具体方法

本文使用的图网络是 图自动编码网络GAE,编码器会针对图的每个节点生成嵌入向量,解码器会根据这些嵌入向量预测图中丢失的边界。

假设输入是一个N节点的无环图,同种每一个节点都使用F维度的代表向量,那么图就可以使用一个N X F维度的矩阵X代表,再定义一个链接N x N矩阵当i 和j两个节点是有链接的那么A(i,j)=1 否则就等于0。

 

其中编码器可以抽象成H = f_enc( X, A) 解码器可以抽象为A = f_dec(H)经过编码器将X变成N x F1矩阵H,对于解码器来说他就是重构链接矩阵A,f_dec(Hi, Hj) 给出两点之间的概率值。

Encoder部分

 

初始化的向量矩阵X,主要是通过卷积网络对图片提取特征。然后在选取目标节点i中紧邻节点

那么节点encoder计算如下

网络使用的是GCN 含有多个隐藏层,对于单个隐藏层有如下公式

 

其中Z表示输入输出。

多层的表示公式如下

其中初始化的z就是X,

其中对角矩阵D

在文中S表示连接的深度,也就是几次连接到大目标点。 本文所有的我试验都是选择s = 1

 

Decoder

Decoder部分主要是对物体匹配的度量,文中提到了相似性和匹配性是两种完全不同的问题,所以不建议将相似性和匹配性一起处理。

 

                                  训练

 

模型训练过程中,可以对数据移除一些链接,生成新的无环矩阵A1,然后通过网络计算Loss, loss为较差熵。

试验结果,当关联深度约高,准确率越高。

 

 

 

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值