【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码)

这篇具有很好参考价值的文章主要介绍了【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文:Directional Connectivity-based Segmentation of Medical Images
代码:https://github.com/zyun-y/dconnnet

摘要

出发点:生物标志分割中的解剖学一致性对许多医学图像分析任务至关重要。
之前工作的问题:以往的连通性工作忽略了潜在空间中丰富的信道方向的信息。
证明:有效地将方向子空间从共享潜在空间中解耦可以显著增强基于连通性网络中的特征表示。
提出:一种用于分割的定向连通性建模方案,该方案解耦、跟踪和利用跨网络的方向信息。

介绍

【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
介绍了基于像素分类和基于连通性的模型之间潜在的空间差异。前者仅突出分类特征,eg:边界。后者包含方向信息,例如:边界像素之间的水平连接。
【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
将两组潜在特征(范畴性和方向性)在DconnNet的潜在空间中的流向用T - SNE进行可视化。它们先被解缠,然后在一个投影的共享流形中有效地融合,基于聚类的结果进行颜色的渲染。
【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
这个是普通的分割掩码变成连通性掩码的示意图。每一个原来一个像素的位置包含了周围8个像素的mask值。一个一个对应即可。感觉好像这个图中间那个错了,中间像素的C1是positive。

方法

由于不同像素类别和方向之间的连通性,基于连通性的网络的潜在空间中存在两组特征:类别信息和方向信息。每一组特征在隐空间中形成其特定的子空间。两个子空间是高度耦合的。我们证明了方向空间的有效解缠和有效利用可以增强连通性模型中的整体特征表示。
Pretrained ResNet:提取特征。
SDE:特征信息和方向信息解耦。
IFD:特征信息与方向信息融合。
【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉

效果

【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码),论文阅读,深度学习,计算机视觉
利用T - SNE对DconnNet在SDE模块前后的隐通道嵌入进行可视化。( b )中的颜色表示无监督聚类结果。当应用于SDE时,通道嵌入自然地分组为几个不同的部分。

结论

其核心思想是将方向子空间从共享的潜在空间中解耦出来,并利用提取的方向特征来增强整体的数据表示。

  1. 通过与其他先进方法的统计比较,显示了DconnNet的整体性能更好。
  2. 通过在一个拓扑敏感的数据集上定性和定量地将DconnNet与其他方法进行比较,展示了其保留拓扑结构的能力。
  3. 通过对DconnNet的隐空间进行可视化,揭示了方向子空间的解纠缠过程

跑通代码

数据集方面

#作者的数据读取中是读取的3通道图像和二值的mask图像,我们写一个数据集读取的函数能让他输出读取的3通道图像和二值的mask图像变成的tensor就可以。自己可以加一点数据增强。
#root_path 是数据集的地址,fold_json存储了10折的图片的名称,fold_num是选取哪一个折作为验证集,就是十折交叉验证的内容,image_size最后resize的图片大小,mode是训练还是验证,augmentation_prob就是数据增强的概率	
	#大家按照自己的数据集,写一个数据集的函数,之后跑别人代码的时候直接用就可以
import os
import random
from random import shuffle
import numpy as np
import torch
from torch.utils import data
from torchvision import transforms as T
from torchvision.transforms import functional as F
from PIL import Image
import numpy as np
import json

from .GetDataset_CHASE import connectivity_matrix
class ImageFolder(data.Dataset):
	def __init__(self, image_root,label_root,json_path, fold=1, image_size=400, mode='train', augmentation_prob=0.4):
		"""Initializes image paths and preprocessing module."""
		self.root = image_root
		with open(json_path, 'r') as load_f:
			self.fold_data = json.load(load_f)
		self.data_list=[]
		if mode == 'train':
			for i in range(1, 11):
				if i != fold:
					self.data_list += self.fold_data['Fold ' + str(i)]
		elif mode == 'val':
			self.data_list = self.fold_data['Fold ' + str(fold)]
		else:
			raise ValueError("数据类型只有train和val")
		self.image_size = image_size
		self.label_root = label_root
		self.mode = mode
		# self.RotationDegree = [0,90,180,270]
		self.augmentation_prob = augmentation_prob
		print("image count in {} path :{}".format(self.mode,len(self.data_list)))

	def __getitem__(self, index):
		"""Reads an image from a file and preprocesses it and returns."""
		image_path = os.path.join(self.root,self.data_list[index])
		GT_path = os.path.join(self.label_root ,self.data_list[index])

		image = Image.open(image_path).convert('RGB')
		GT = Image.open(GT_path).convert('1')



		aspect_ratio = image.size[0]/image.size[1]#weight/height


		Transform = []

		ResizeRange = random.randint(500,525)
		Transform.append(T.Resize((ResizeRange,int(ResizeRange*aspect_ratio))))
		p_transform = random.random()

		if (self.mode == 'train') and p_transform <= self.augmentation_prob:

			RotationRange = random.randint(-10,10)
			Transform.append(T.RandomRotation((RotationRange,RotationRange)))
			CropRange = random.randint(500,525)
			Transform.append(T.CenterCrop((CropRange,int(CropRange*aspect_ratio))))
			Transform = T.Compose(Transform)
			
			image = Transform(image)
			GT = Transform(GT)


			ShiftRange_left = random.randint(0,20)
			ShiftRange_upper = random.randint(0,20)
			ShiftRange_right = image.size[0] - random.randint(0,20)
			ShiftRange_lower = image.size[1] - random.randint(0,20)
			image = image.crop(box=(ShiftRange_left,ShiftRange_upper,ShiftRange_right,ShiftRange_lower))
			GT = GT.crop(box=(ShiftRange_left,ShiftRange_upper,ShiftRange_right,ShiftRange_lower))
			#
			# if random.random() < 0.5:
			# 	image = F.hflip(image)
			# 	GT = F.hflip(GT)
			#
			# if random.random() < 0.5:
			# 	image = F.vflip(image)
			# 	GT = F.vflip(GT)

			Transform = T.ColorJitter(brightness=0.2,contrast=0.2,hue=0.02)

			image = Transform(image)

			Transform =[]


		Transform.append(T.Resize([256,256]))
		Transform.append(T.ToTensor())
		Transform = T.Compose(Transform)
		
		image = Transform(image)
		GT = Transform(GT)

		mean = [0.1591, 0.1591, 0.1591]
		std = [0.2593, 0.2593, 0.2593]
		Norm_ = T.Normalize(mean, std)
		image = Norm_(image)
		# images = image
		# image = torch.unsqueeze(image,0)
		# images = torch.cat([images,image],dim=1)



		return image, GT

	def __len__(self):
		"""Returns the total number of font files."""
		return len(self.data_list)

def get_loader(image_path,label_path,image_size, batch_size, json_path, fold =None,num_workers=2, mode='train',augmentation_prob=0.4):
	"""Builds and returns Dataloader."""
	
	dataset = ImageFolder(image_root = image_path,label_root=label_path,json_path=json_path, fold = fold,image_size =image_size, mode=mode,augmentation_prob=augmentation_prob)
	data_loader = data.DataLoader(dataset=dataset,
								  batch_size=batch_size,
								  shuffle=True,
								  num_workers=num_workers)
	return data_loader

main函数修改

我直接在函数上写上自己数据集的地址和相关参数了由于时间原因,大家可以把它加入到args参数里面更规范。我是class=1的任务,所以一定把class修改了,源代码中是4.

def main(args):

    ## K-fold cross validation ##
    for exp_id in range(args.folds):
    # 
        train_loader = get_loader(image_path='自己数据集中image的位置',
                                  label_path='自己数据集中mask的位置',
                                  json_path="json文件的位置",
                                  image_size=(256,256),
                                  batch_size=1,
                                  fold=1,
                                  num_workers=8,
                                  mode='train',
                                  augmentation_prob=0.4)
        val_loader = get_loader(image_path='自己数据集中image的位置',
                                label_path='自己数据集中mask的位置',
                                json_path="json文件的位置",
                                image_size=(256,256),
                                batch_size=1,
                                fold=1,
                                num_workers=8,
                                mode='val',
                                augmentation_prob=0.)


        print("Train batch number: %i" % len(train_loader))
        print("Test batch number: %i" % len(val_loader))

        #### Above: define how you get the data on your own dataset ######
        model = DconnNet(num_class=1).cuda()

        if args.pretrained:
            model.load_state_dict(torch.load(args.pretrained,map_location = torch.device('cpu')))
            model = model.cuda()

        solver = Solver(args)

        solver.train(model, train_loader, val_loader,exp_id+1, num_epochs=args.epochs)

connect_loss.py

我是一个类别的,运行一直报错,是connect_loss.py这个函数它最后有个conn = conn.squeeze()注释掉就可以运行了。文章来源地址https://www.toymoban.com/news/detail-760053.html

def connectivity_matrix(multimask, class_num):

    ##### converting segmentation masks to connectivity masks ####

    [batch,_,rows, cols] = multimask.shape
    # batch = 1
    conn = torch.zeros([batch,class_num*8,rows, cols]).cuda()
    for i in range(class_num):
        mask = multimask[:,i,:,:]
        # print(mask.shape)
        up = torch.zeros([batch,rows, cols]).cuda()#move the orignal mask to up
        down = torch.zeros([batch,rows, cols]).cuda()
        left = torch.zeros([batch,rows, cols]).cuda()
        right = torch.zeros([batch,rows, cols]).cuda()
        up_left = torch.zeros([batch,rows, cols]).cuda()
        up_right = torch.zeros([batch,rows, cols]).cuda()
        down_left = torch.zeros([batch,rows, cols]).cuda()
        down_right = torch.zeros([batch,rows, cols]).cuda()


        up[:,:rows-1, :] = mask[:,1:rows,:]
        down[:,1:rows,:] = mask[:,0:rows-1,:]
        left[:,:,:cols-1] = mask[:,:,1:cols]
        right[:,:,1:cols] = mask[:,:,:cols-1]
        up_left[:,0:rows-1,0:cols-1] = mask[:,1:rows,1:cols]
        up_right[:,0:rows-1,1:cols] = mask[:,1:rows,0:cols-1]
        down_left[:,1:rows,0:cols-1] = mask[:,0:rows-1,1:cols]
        down_right[:,1:rows,1:cols] = mask[:,0:rows-1,0:cols-1]

        conn[:,(i*8)+0,:,:] = mask*down_right
        conn[:,(i*8)+1,:,:] = mask*down
        conn[:,(i*8)+2,:,:] = mask*down_left
        conn[:,(i*8)+3,:,:] = mask*right
        conn[:,(i*8)+4,:,:] = mask*left
        conn[:,(i*8)+5,:,:] = mask*up_right
        conn[:,(i*8)+6,:,:] = mask*up
        conn[:,(i*8)+7,:,:] = mask*up_left

    conn = conn.float()
    # conn = conn.squeeze()
    # print(conn.shape)
    return conn

到了这里,关于【论文阅读】Directional Connectivity-based Segmentation of Medical Images(可以跑通代码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 论文阅读:Rethinking Range View Representation for LiDAR Segmentation

    论文阅读:Rethinking Range View Representation for LiDAR Segmentation

    来源ICCV2023 LiDAR分割对于自动驾驶感知至关重要。最近的趋势有利于基于点或体素的方法,因为它们通常产生比传统的距离视图表示更好的性能。在这项工作中,我们揭示了建立强大的距离视图模型的几个关键因素。我们观察到, “多对一”的映射 , 语义不连贯性 , 形状变

    2024年02月02日
    浏览(10)
  • 论文阅读:FCB-SwinV2 Transformer for Polyp Segmentation

    论文阅读:FCB-SwinV2 Transformer for Polyp Segmentation

    这是对FCBFormer的改进,我的关于FCBFormer的论文阅读笔记:论文阅读FCN-Transformer Feature Fusion for PolypSegmentation-CSDN博客 依然是一个双分支结构,总体结构如下: 其中一个是全卷积分支,一个是Transformer分支。 和FCBFormer不同的是,对两个分支都做了一些修改。 本文没有画FCB分支的

    2024年04月24日
    浏览(10)
  • 【论文阅读】【yolo系列】YOLACT Real-time Instance Segmentation

    【论文阅读】【yolo系列】YOLACT Real-time Instance Segmentation

    论文链接:https://arxiv.org/pdf/1904.02689.pdf 【 实例分割 】 鉴于其重要性,大量的研究投入到实例分割的准确性。 两阶段 :Mask-RCNN [18]是一种具有代表性的两阶段实例分割方法,它首先生成候选感兴趣区域(roi),然后在第二阶段对这些roi进行分类和分割。后续工作试图通过提

    2024年02月16日
    浏览(6)
  • 【论文阅读】Augmented Transformer network for MRI brain tumor segmentation

    【论文阅读】Augmented Transformer network for MRI brain tumor segmentation

    Zhang M, Liu D, Sun Q, et al. Augmented transformer network for MRI brain tumor segmentation[J]. Journal of King Saud University-Computer and Information Sciences, 2024: 101917. [开源] IF 6.9 SCIE JCI 1.58 Q1 计算机科学2区 【核心思想】 本文提出了一种新型的MRI脑肿瘤分割方法,称为增强型transformer 网络(AugTransU-Net),

    2024年01月23日
    浏览(13)
  • 论文阅读:Polyp-PVT: Polyp Segmentation with PyramidVision Transformers

    论文阅读:Polyp-PVT: Polyp Segmentation with PyramidVision Transformers

    这篇论文提出了一种名为Polyp-PVT的新型息肉分割框架,该框架采用金字塔视觉变换器(Pyramid Vision Transformer, PVT)作为编码器,以显式提取更强大的特征。本模型中使用到的关键技术有三个:渐进式特征融合、通道和空间注意力、自注意力。 Polyp-PVT通过引入三个简单的组件—

    2024年04月13日
    浏览(13)
  • RIS 系列 Mask Grounding for Referring Image Segmentation 论文阅读笔记

    RIS 系列 Mask Grounding for Referring Image Segmentation 论文阅读笔记

    写在前面   一篇 Arxiv 上面的新文章,看看清华大佬们的研究。 论文地址:Mask Grounding for Referring Image Segmentation 代码地址:原论文说将会开源,静待佳音~ 预计提交于:CVPR 2024 Ps:2023 年每周一篇博文阅读笔记,主页 更多干货,欢迎关注呀,期待 6 千粉丝有你的参与呦~   

    2024年02月03日
    浏览(11)
  • 【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points

    【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points

    基于汽车雷达检测点的深度 实例分割 一个区别: automotive radar  汽车雷达 : 分辨率低,点云稀疏,语义上模糊,不适合直接使用用于密集LiDAR点开发的方法  ; 返回的物体图像不如LIDAR精确,可以在雨,雪,雨夹雪,冰雹,雾,泥和尘土中返回; 在夜间和阴天条件下也比激

    2024年02月13日
    浏览(13)
  • [论文阅读] Revisiting Feature Propagation and Aggregation in Polyp Segmentation

    [论文阅读] Revisiting Feature Propagation and Aggregation in Polyp Segmentation

    [论文地址] [代码] [MICCAI 23] Abstract 息肉的准确分割是筛查过程中有效诊断结直肠癌的关键步骤。 由于能够有效捕获多尺度上下文信息,普遍采用类似UNet 的编码器-解码器框架。 然而,两个主要限制阻碍了网络实现有效的特征传播和聚合。 首先,跳跃连接仅将单个尺度特征传

    2024年02月02日
    浏览(12)
  • 【论文阅读笔记】SegVol: Universal and Interactive Volumetric Medical Image Segmentation

    【论文阅读笔记】SegVol: Universal and Interactive Volumetric Medical Image Segmentation

    Du Y, Bai F, Huang T, et al. SegVol: Universal and Interactive Volumetric Medical Image Segmentation[J]. arXiv preprint arXiv:2311.13385, 2023.[代码开源] 【论文概述】 本文思路借鉴于自然图像分割领域的 SAM ,介绍了一种名为SegVol的先进医学图像分割模型,旨在构建一种 图像分割基础模型 ,这是一个面向体

    2024年01月16日
    浏览(10)
  • 突破经典网格特征?AutoFocusFormer: Image Segmentation off the Grid 论文阅读笔记

    突破经典网格特征?AutoFocusFormer: Image Segmentation off the Grid 论文阅读笔记

    写在前面   这一周赶上五一五天假了,朋友们出去 happy 了吗?有没有赶上人山人海的热闹?反正我只是在 5.1 那天出去走走,哈哈。   这是一篇关于实例分割的文章,所解决的问题在于实例分割中需要的小目标像素分辨率太低,于是本文提出一种自适应下采样的方法来

    2024年02月06日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包