scipy.optimize.linear_sum_assignment(cost_matrix)
主要讲解这个函数的功能和使用。
它可以抽象成这样一个数学问题。
我遇到的场景是这样,检测中有9个ground truth,我预测了10个检测,他们和每个ground truth的IOU矩阵如下:
iou_mat:
[[0. 0. 0. 0. 0.95522388 0.62583519 0.47330961 0. 0. 0. ]
[0. 0. 0. 0. 0.69978402 0.82294264 0.66800805 0. 0. 0. ]
[0. 0. 0. 0. 0.47556391 0.62360802 0.82964602 0. 0. 0. ]
[0. 0. 0. 0. 0. 0. 0. 0. 0.80653266 0.14189189]
[0. 0. 0. 0. 0. 0. 0. 0. 0.09547739 0.81305638]
[0. 0. 0. 0. 0. 0. 0. 0.80693069 0. 0. ]
[0.37533875 0.03470716 0.01203501 0.71076923 0. 0. 0. 0. 0. 0. ]
[0.13828425 0.69325153 0.62729124 0. 0. 0. 0. 0. 0. 0. ]
[0.11683417 0.66935484 0.79550562 0. 0. 0. 0. 0. 0. 0. ]]
我需要把最合适的预测和标签绑定到一起,并且每个预测和标签只能使用一次。完美契合这个函数的使用背景,由于该函数是求最小值,所以先进行1-
的操作,调用函数即可。
match_index_list = linear_sum_assignment(1 - iou_mat)
#输出为:
(array([0, 1, 2, 3, 4, 5, 6, 7, 8]), array([4, 5, 6, 8, 9, 7, 3, 1, 2]))
即:(0,4),(1,5),(2,6),(3,8)……
这样的顺序去做匹配即可找到那些预测和标签是匹配的。