背景:
使用孪生网络来做图片 1:N验证,如果每次都将新输入图片与整个图片库来进网络来得到输出结果效率太低
想着把图片库图片先进网络,返回为Tensor后直接保存到txt文档 之后在直接读取txt即可
实现:图片 → txt
f = open('./img_data.txt', 'r', encoding='utf8')
try:
img_data = eval(f.read())
except:
img_data = {}
cla = input('输入图像所属类别:')
path = input('输入图片绝对路径:')
model = torch.load("./loss01.pth", map_location=device)
try:
lis = img_data[cla]
except:
lis = []
dataset_img = mset(path)
dataload = DataLoader(dataset_img, shuffle=True, batch_size=1)
img = next(iter(dataload ))
output1 = model.forward_once(img)
x = output1.detach().cpu().numpy()
a = x.tolist()
strNums = [str(x_i) for x_i in x[0]]
lis.append(strNums)
img_data[cla] = lis
ff = open('./img_data.txt', 'w', encoding='utf8')
ff.write(str(img_data))
2. txt → 加载为Tensor
f = open('./img_data.txt', encoding='utf8')
my_data = eval(f.read())
for i in my_data.items():
for j in i[1]:
ff = [float(jj) for jj in j]
np_j = numpy.array(ff)
# 此处output1是网络返回结果(也就是输入图片经网络后转成tensor)
# 然后我们就可以计算output1和我们从txt中提取的图像的欧氏距离了
euclidean_distance = F.pairwise_distance(output1, torch.from_numpy(np_j))
以上论述如有错误 欢迎指正。