使用openslide对WSI图像进行相关任务的技巧

使用openslide对WSI图像进行相关任务的技巧

关于openslide使用的必须的注意事项

兼容格式

openslide读取图像,首先不管是slide.get_thumbnail(level)方法还是slide.read_region((w_coordinate, h_coordinate), level, (patch_w, patch_h)) 方法,返回的对象都是Image对象而非numpy array对象。因此为便于对返回的Image对象进行后续处理,一般都会将其转换为数组。由于Image对象,所以默认的通道顺序自然也是RGB,只需要直接使用np.array()方法则可: region_img_arr = np.array(slide.read_region((w_coordinate, h_coordinate), level, (patch_w, patch_h))) 。但需要注意的是,直接转换为数组时候,其通道数的深度并非为3而是4,因为获取的数组,实际上是包含了alpha通道(透明度),即转换后的数组,第三维度依次是**[R,G,B,A]**。一般情况下这个WSI图像不存在透明度处理的问题,因此可以将这个通道直接丢弃,只取前三个通道,保证进行np.array转换后能兼容常规的图像处理工具格式则可,如: region_img_arr = np.array(slide.read_region((w_coordinate, h_coordinate), level, (patch_w, patch_h)))[:,:,:3]

坐标顺序

实际上openslide很多使用习惯和python自带的PIL相同,首先不管是slide.get_thumbnail(level)方法还是slide.read_region((w_coordinate, h_coordinate), level, (patch_w, patch_h))方法又或者是slide.level_dimensions[level],牵涉到坐标的设置,都是(图像的宽,图像的高),和array中矩阵的顺序(图像的高,图像的宽)刚好相反,如基于numpy array的skimage、cv2甚至是scipy这些包,处理图像(矩阵)时,都是先height, 之后才是width,如 img[height,width]

处理WSI大图文件的思路

正是因为WSI图像原图非常大,在一般情况下没有办法直接处理,所以要才要借助于openslide。然而,使用openslide虽然也有方法能提取整张图像的缩略图(如slide.get_thumbnail(level)方法),只是这样做并非是使用openslide进行处理的初衷,实际上,我们之所以要使用openslide,是因为在不直接还原原图缩略图的情况下,又能像使用array对象一样,对感兴趣的区域进行直接的提取,因此,更多时候,我们用的是openslide中区域截图提取的方法: slide.read_region((w_coordinate, h_coordinate), level, (patch_w, patch_h)) ,在这里要强调的是,在绝大多数情况下,我们是对原图0级没进行任何下采样的截图进行处理,所以上述的level参数默认为0。 对WSI进行全图处理的思想是,根据预设的视野大小(为patch_size×patch_size),在全图中使用slide.read_region()方法进行遍历,再根据当前遍历到的位置进行相关判断或处理。
基本代码如下:

def openslide_cut_patch(filename,label_result_dir,livel,patch_size,save_dir):
    """
    根据给出的label,在以patch size大小的窗口遍历svs原图时对相应区域进行采样
    :param filename:包绝对路径的文件名
    :param label_result_dir:svs图片对应的标注结果存放目录,每个numpy数组大小等同于对应svs图片livel下采样下的大小
    :param livel:svs处理的下采样的级数
    :param patch_size:移动的视野大小,等同于保存图片的大小
    :param save_dir:图片保存的路径
    :return:
    """
    level_downsamples = slide.level_downsamples[livel]
    w_count = int(slide.level_dimensions[0][0] // patch_size)
    h_count = int(slide.level_dimensions[0][1] // patch_size)
    #设定步长=patch_size,根据WSI原图大小决定遍历多少个视野框
    for w in range (w_count):
        for h in range (h_count):
        	subHIC = np.array(slide.read_region((w * patch_size, h * patch_size), 0, (patch_size, patch_size)))[:,:,:3]
            # do some processing about subHIC
  • 3
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
利用多实例学习(Multiple Instance Learning, MIL)对WSI(Whole Slide Imaging)图像进行分割的一般步骤如下: 1. 数据准备: - 获取WSI图像数据集,其中每个WSI图像可能包含多个区域,每个区域可能包含多个实例(例如细胞)。 - 对每个WSI图像,标注出感兴趣区域(Region of Interest, ROI)以及相应的实例标签。 2. 特征提取: - 针对每个ROI,提取特征来表示该区域的视觉信息。常用的特征包括颜色直方图、纹理特征、形状特征等。 3. 实例级别标签生成: - 对于每个ROI,根据其中的实例标签生成一个实例级别的标签。有多种方法可用,例如:包含正样本的ROI标记为正例,不包含正样本但包含负样本的ROI标记为不确定例,不包含任何样本的ROI标记为负例。 4. 多实例学习模型训练: - 使用MIL算法进行模型训练。MIL是一种弱监督学习算法,其中每个训练样本都由一个或多个实例组成,并且样本级别的标签只有正例和负例。 - 常用的MIL算法包括经典的MIL算法、MIL with Multiple Instance Representation (MIL-MIR)等。 5. 分割预测: - 对于新的WSI图像,首先对其进行分割,得到多个ROI。 - 对于每个ROI,提取特征,并使用训练好的MIL模型进行预测。根据预测结果,可以得到每个ROI的实例级别的标签。 需要注意的是,WSI图像的分割是一个复杂任务,常常需要使用深度学习等方法,并结合大量的标注数据和计算资源来训练和优化模型。同时,还需要根据具体应场景进行一些调整和改进,以获得更好的分割效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值