2023.11.6-2023.11.12 MRI论文笔记 Third

论文

论文题目:fastMRI: An open dataset and benchmarks for accelerated MRI
论文作者:Zbontar, Jure and Knoll, Florian and Sriram, Anuroop and Murrell, Tullie and Huang, Zhengnan and Muckley, Matthew J and Defazio, Aaron and Stern, Ruben and Johnson, Patricia and Bruno, Mary and others
论文期刊:arXiv preprint arXiv:1811.08839
年份:2018

论文贡献

  1. 针对先前MRI领域中没有较大的数据集,作者们整理并提供了一个数据集。该数据集包含膝盖和脑部数据,其中膝盖数据包含两种,分别是 coronal proton-density weighting with (PDFS) and without (PD) fat suppression。 脑部数据分成四种,分别是T1 weighted images, T1 weighted基础上加入contrast agent, T2 weighted images和 FLAIR images。再细化,通过每一种加权方法采集到的每一份数据集包含四种类型的数据:原始多线圈K空间数据,仿真得到的单线圈K空间数据,GroundTrue图片,DICOM图片(大多数DICOM图像是通过加速平行成像采集和相应的重建得到的)。
  2. 论文提出U-Net结构的重建模型,每一块包含卷积核,标准化,激活函数。下采样时块与块之间通过最大池化层实现下采样,上采样时块与块之间通过双线性上采用连接,并且上采用时用到对应下采样层得到的数据。训练过程的损失函数是训练得到的图像与GroundTrue的一范数。
  3. 论文通过实验证明了其所提出的U-Net模型随着网络参数的增加,也不会出现过拟合的状态。同时还证明了随着训练数据集的数量增加,网络训练出来的结果的SSIM指标也在逐渐提升,这也侧面印证了大数据集是必要的。

论文展望

  1. 本文提出的U-Net模型是个end-to-end模型,没有考虑到利用线圈灵敏度、线圈之间的相关性。因此,可以在往后研究中考虑这两个关系。
  2. 论文希望往后的研究可以提出一个较好的度量指标。
  3. 与许多计算机视觉问题不同,其中小的纹理变化可能不改变他人对图像的整体满意度。但在MRI重建中,必须特别小心,以确保我们不会被一个非常合理但不一定正确的重建所误导。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,需要使用图像配准算法来实现这个任务。常用的算法包括基于特征的算法如SIFT和SURF,以及基于相似性度量的算法如互相关和相位相关等。这里我可以给您提供一个基于OpenCV库的Python代码示例,使用SIFT算法实现图像配准: ```python import cv2 # 读取图像 img1 = cv2.imread('ct.jpg', cv2.IMREAD_GRAYSCALE) img2 = cv2.imread('mri.jpg', cv2.IMREAD_GRAYSCALE) # SIFT特征提取 sift = cv2.xfeatures2d.SIFT_create() kp1, des1 = sift.detectAndCompute(img1, None) kp2, des2 = sift.detectAndCompute(img2, None) # 特征匹配 bf = cv2.BFMatcher() matches = bf.knnMatch(des1, des2, k=2) # 筛选匹配点 good = [] for m, n in matches: if m.distance < 0.75 * n.distance: good.append([m]) # 获取匹配点坐标 src_pts = np.float32([ kp1[m[0].queryIdx].pt for m in good ]).reshape(-1,1,2) dst_pts = np.float32([ kp2[m[0].trainIdx].pt for m in good ]).reshape(-1,1,2) # 计算变换矩阵 M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0) # 图像配准 aligned_img = cv2.warpPerspective(img1, M, img2.shape[:2]) # 显示结果 cv2.imshow('aligned_img', aligned_img) cv2.waitKey(0) cv2.destroyAllWindows() ``` 这段代码中,我们首先使用SIFT算法提取了两张图像的特征点和特征描述符,然后使用暴力匹配算法(BFMatcher)进行特征匹配。接着,我们筛选出最佳匹配点,并根据这些匹配点计算出变换矩阵(M),最后使用这个变换矩阵将第一张图像进行配准。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值