(a)一幅图片经过目标检测提取bounding box,并得到node feature和edge feature。其中node feature就是每一个bounding box的视觉特征,edge feature是bi、bj两个bounding box的union box的视觉特征。
这些视觉特征都来自于目标检测网络。
(b)message pooling,信息融合。
初始的点特征和边特征是这样的:
message passing的具体计算方法如下:
node融合的信息是node state,入边edge(i→j)的state和出边edge(j→i)的state
edge融合的信息是edge state,主语目标(subject)的state和宾语目标的(object)的state
mi表示第i个node的message,mi→j表示位于第i个node和第j个node之间的edge的message
v1、v2、w1、w2都是可学习的参数
message passing后的结点和边特征再分别通过edge GRU和node GRU
(c)迭代
b的流程重复0次或多次
(d)生成场景图
由nodeGRU生成的node feature进行bounding box的类别分类,由edgeGRU生成的edge feature进行predicate即谓词分类。这样就构成< sub-rel-obj >这种形式的视觉三元组了。