最近用SAM的时候,box输入踩了一些坑,不想看坑的看省流就好了。后面详细说有什么坑。
省流:
bbox输入是长度为4的数组
import numpy as np
bbox = np.array([499,88,1002,956])
'''省略一些代码'''
masks, _, _ = predictor.predict(box=bbox, multimask_output=False)
分别代表左上右下两点的x y坐标。
box与原图其实有一个90度的差异,因此如果输入图像是Y X,则box坐标时[X0,Y0,X1,Y1]。
如果输入图像是X Y,则box坐标时[Y0,X0,Y1,X1]。
具体可以跳转自然图像部分的box可视化
目录
踩坑自然图像
输入
我们按下面的设定,横轴为x轴,纵轴为y轴,
可以看到,读入的图片格式的 (y,x,channel)
我用微信截图确定了兔子的坐标(微信截图,对的就是这么朴实无华)
无法截图微信截图的样子,大家自己试试把。反正结论是可以看到坐标是(X,Y)
bbox = np.array([499,88,1002,956])
记录下坐标,并输入。注意这里也是(X,Y,X,Y)。微信截图看到的也是(X,Y)。即位置的一一对应的。
最后成功分割出兔子
最后来看一看box可视化
可以看到就是旋转了90°的。bbox与原图就是对不上才能跑出结果。
医学图像
用Simpleitk读入的nii数据是Z Y X,每张切片都是Y X,与自然图像一致
因此按照上面的结论,bbox的坐标同样是对应的(X,Y,X,Y)
将第三维坐标X挪到前面第二维Y前面就好啦