一种基于深度学习的2D医学图像分割方法

    技术2024-11-16  7


    本发明涉及图像分割,尤其涉及一种基于深度学习的2d医学图像分割方法。


    背景技术:

    1、医学图像分割是医学图像在临床应用时的一大挑战,同时又是非常重要的步骤。其包含了多种任务,例如息肉分割、细胞分割、血管分割、病灶区域分割等;依靠医生手动进行分割不仅费时,并且易受到临床经验影响,因此依靠计算机进行自动医学图像分割是很有必要的,并且对于医学专家而言是很好的辅助工具。

    2、随着深度学习技术的快速发展,cnn网络已经成为医学图像分割的主要方法之一,尽管cnn网络在医学图像分割领域取得了巨大成功,但要进一步突破却相当困难;这是因为cnn网络固有的归纳偏置,每个卷积核只能关注整个图像的一个子区域,导致全局上下文丢失,无法建立长期依赖关系;为解决这一问题,许多研究人员探索了缓解感受野受限的问题和增强上下文建模能力的方法;例如,yu等人提出了一种扩展率可调的卷积,在语义分割方面表现出优异的性能;peng等人设计了大型内核来捕获丰富的全局上下文信息;zhao等人则利用多尺度特征的金字塔池聚合多尺度全局信息;然而,这些方法不能从根本上解决有限的接受野问题。

    3、transformer架构是一种基于自注意力机制的模型,能够在不同位置对输入序列进行注意力计算,并且能够并行处理输入序列,从而加快训练速度;自注意力机制的加入有助于更全面地理解图像中的全局信息;尽管transformer擅长于进行长程依赖建模,然而也存在局部关注度不足的问题。

    4、全局信息与局部信息的有效融合可以提高模型对图像的理解能力,使其能够更准确地进行图像分析和任务处理;因此,许多研究人员提出了结合cnn和transformer的混合架构;例如,setr用transformer代替编码器,在图像分割任务中显示出良好的效果;transunet的整体网络架构采用了u-net,它结合了cnn和transformer两种架构;以往的研究主要集中在用transformer代替cnn或将cnn和transformer依次结合;然而,这些方法在有效结合局部和全局特征方面存在局限性:按序结合两种网络虽然可以一定程度上融合全局信息与局部信息,但是一种网络提取的特征信息在经过另一种网络结构时难免会有许多损失。


    技术实现思路

    1、针对现有方法的不足,本发明解决现有cnn和transformer特征融合时存在信息丢失问题。

    2、本发明所采用的技术方案是:一种基于深度学习的2d医学图像分割方法包括以下步骤:

    3、步骤一、采集医学图像数据集;

    4、步骤二、构建cnn分支和transformer分支,将医学图像输入两个分支,利用cnn分支提取局部特征,利用transformer分支提取全局特征;

    5、作为本发明的一种优选实施方式,cnn分支包括:

    6、医学图像经过7x7卷积、bn、relu激活函数和3×3最大池化,得到第一层图像特征g3;

    7、g3经过3个卷积块构成的第一卷积层得到第二层图像特征g2;

    8、g2经过4个卷积块构成的第二卷积层得到第三层图像特征g1;

    9、g1经过5个卷积块构成的第三卷积层得到第四层图像特征g0。

    10、作为本发明的一种优选实施方式,卷积块由3×3卷积、bn、relu激活函数、3×3卷积和bn组成。

    11、作为本发明的一种优选实施方式,医学图像经过包含一个16×16的卷积作为嵌入映射,再经过十一个注意力块的transformer分支,得到图像特征t0,再经过连续上采样得到图像特征t1和图像特征t2。

    12、作为本发明的一种优选实施方式,每个注意力块依次包括层归一化、多头注意力层、层归一化以及一个多头感知机组成。

    13、步骤三、构建caf模块,将局部特征和全局特征输入caf模块中进行第一特征融合;

    14、作为本发明的一种优选实施方式,第一特征融合的公式为:

    15、xi=concat(gi,ti)  (4)

    16、

    17、式中,gi,ti分别表示由cnn分支和transformer分支提取的图像特征;concat(·)表示拼接操作,mhsa(·)表示多头自注意力,conv(·)表示卷积操作,tcarttopolar(·)表示由笛卡尔坐标系转换为极坐标系的运算,tpolartocart(·)表示由极坐标系转换为笛卡尔坐标系。

    18、步骤四、在残差块中引入深度可分离卷积,将第一特征融合与hadamard积进行第二特征融合;

    19、作为本发明的一种优选实施方式,第二特征融合的公式为:

    20、

    21、其中,residual(·)=conv1×1(depthconv3×3(conv1×1(·))),为第一特征融合,和是ti,gi的投影矩阵。

    22、步骤五、利用上采样和跳跃连接融合不同层级的第二特征融合,得到融合后的图像特征;

    23、作为本发明的一种优选实施方式,融合后的图像特征的公式为:

    24、mi=conv3×3(conv1×1(conv3×3(upi)))+conv3×3(fi+1)  (12)

    25、其中,fi是caf的输出特征;upi=upsampling(fi),upsampling(·)表示上采样操作。

    26、步骤六、将第一层图像特征与解码第三上采样进行残差连接,再通过上采样得到分割结果;

    27、作为本发明的一种优选实施方式,使用加权损失函数对图像特征t2、解码第三上采样up2以及caf第一特征f0进行监督,公式为:

    28、

    29、其中,α、β、γ为权值,为加权iou损失和二元交叉熵组合。

    30、本发明的有益效果:

    31、1、本发明采用双分支编码器进行特征提取,cnn提取局部细粒度特征,transformer捕获全局上下文信息;设计的caf模块包含了一个多尺度分组卷积(msgc)、一个圆形注意力块、以及一个包含了残差块和hadamard积的残差块;在融合时使用transformer进行特征融合可以同时有效地融合两种分支的语义信息,但是会带来运算量的提升,但考虑到transformer相对于输入的二次计算复杂度,对整张特征图使用注意力机制是不可取,选择在部分区域使用注意力机制来缓解transformer带来的计算复杂度问题;尽管这样会带来一定的性能损失,采用描述局部图像特征的lbp算子,它具有旋转不变性和灰度不变性,lbp算子在一个圆形区域上描述特征,可以通过调整半径和采样点数量调整采样区域,利用caf融合框架在进行特征融合时效仿lbp算子在圆形区域上使用注意力机制,并且可以调整半径和区域宽度来调整采样区域;

    32、2、与轴向或四轴注意力不同的是在圆形区域内使用注意力机制,可以更多的包含语义信息,还可以通过调节圆形的半径和边缘宽度,可以在融合不同层次语义信息的过程中,覆盖尽可能多的区域;

    33、3、使用深度监督的方式对编码器,融合模块和解码器进行优化;

    34、4、提出并实现了在圆形注意力机制,圆形区域上使用注意力可以在不大幅增加参数量的情况下有效地捕获上下文信息,有效地进行建模,提升计算效率;

    35、5、在圆形注意力机制的基础上,提出的融合方法在对不同的层次融合时使用不同区域上的圆形注意力,进一步扩大了融合时模型的感受野;

    36、6、在cnn和transformer分支的基础上,caf融合框架可以有效地融合两个分支的语义信息,提升分割性能表现。


    技术特征:

    1.一种基于深度学习的2d医学图像分割方法,其特征在于,包括以下步骤:

    2.根据权利要求1所述的基于深度学习的2d医学图像分割方法,其特征在于,cnn分支包括:

    3.根据权利要求2所述的基于深度学习的2d医学图像分割方法,其特征在于,卷积块由3×3卷积、bn、relu激活函数、3×3卷积和bn组成。

    4.根据权利要求1所述的基于深度学习的2d医学图像分割方法,其特征在于,医学图像经过一个16×16的卷积作为嵌入映射,再经过十一个注意力块的transformer分支,得到图像特征t0,再经过连续上采样得到图像特征t1和图像特征t2。

    5.根据权利要求4所述的基于深度学习的2d医学图像分割方法,其特征在于,每个注意力块依次包括层归一化、多头注意力层、层归一化以及一个多头感知机组成。

    6.根据权利要求1所述的基于深度学习的2d医学图像分割方法,其特征在于,第一特征融合的公式为:

    7.根据权利要求6所述的基于深度学习的2d医学图像分割方法,其特征在于,第二特征融合的公式为:

    8.根据权利要求7所述的基于深度学习的2d医学图像分割方法,其特征在于,融合后的图像特征的公式为:

    9.根据权利要求4或8或所述的基于深度学习的2d医学图像分割方法,其特征在于,使用加权损失函数对transformer的图像特征t2、解码第三上采样up2以及caf第一特征f0进行监督,公式为:

    10.基于深度学习的2d医学图像分割系统,其特征在于,包括:存储器,用于存储可由处理器执行的指令;处理器,用于执行指令以实现如权利要求1-9任一项所述的基于深度学习的2d医学图像分割方法。


    技术总结
    本发明涉及图像分割技术领域,尤其涉及一种基于深度学习的2D医学图像分割方法,包括采集医学图像数据集;构建CNN分支和Transformer分支,利用CNN分支提取局部特征,利用Transformer分支提取全局特征;构建CAF模块,将局部特征和全局特征输入CAF模块中进行第一特征融合;在残差块中引入深度可分离卷积,将第一特征融合与Hadamard积进行第二特征融合;利用上采样、和跳跃连接融合不同层级的第二特征融合,得到融合后的图像特征;将第一层图像特征与解码第三上采样进行残差连接,再通过上采样得到分割结果。本发明解决现有CNN和Transformer特征融合时存在信息丢失问题。

    技术研发人员:袁宝华,吴旭东,马瑾,秦其乐,汤瑞
    受保护的技术使用者:常州大学
    技术研发日:
    技术公布日:2024/10/24
    转载请注明原文地址:https://symbian.8miu.com/read-22099.html

    最新回复(0)