基于Hadoop并行加速的分级图分组配准方法技术

技术编号:21201991 阅读:16 留言:0更新日期:2019-05-25 01:51
本发明专利技术公开了一种基于Hadoop并行加速的分级图分组配准方法。本发明专利技术步骤如下:1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,系统把文件划分成多个块,并分散地存储于3个数据节点,每个数据节点尽量均匀存储图像,且每个数据节点上的块信息复制2份存储于其他数据节点上。2.读入图像并计算相似度矩阵;3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组;4.构建分级图的连接体系;5.计算变形场;6.配准以及写入图像;7.将步骤5和6循环迭代,直到达到所期望的迭代次数。本发明专利技术在保证了配准精度的前提下,提高多张脑图像分组配准的运行速度。

Hierarchical Graph Grouping Registration Method Based on Hadoop Parallel Acceleration

The invention discloses a hierarchical graph grouping registration method based on Hadoop parallel acceleration. The steps of the invention are as follows: 1. Upload the image to the HDFS file system, determine that the blocksize is 64Mb, the system divides the file into several blocks, and stores the file in three data nodes, each data node stores the image as evenly as possible, and two copies of block information on each data node are stored on other data nodes. 2. Read in the image and calculate the similarity matrix; 3. Cluster all the images into_groups based on MapRedue's distributed AP clustering; 4. Construct the connection system of hierarchical graphs; 5. Compute the deformation field; 6. Registration and write the image; 7. Iterate steps 5 and 6 until the desired number of iterations is reached. The invention improves the running speed of grouping registration of multiple brain images on the premise of guaranteeing the registration accuracy.

【技术实现步骤摘要】
基于Hadoop并行加速的分级图分组配准方法
本专利技术属于三维医学图像配准领域,应用于大规模的医学脑图像配准,具体地来说是基于Hadoop并行加速的分级图分组配准方法。
技术介绍
医学图像配准在分析基于图谱的分析或临床诊断系统方面起到基本的关键作用。在这些研究中,图像配准关键在于,消除群体差异,这些差异包括个体直接按的不同或听一个实验者的结构变异变化(例如与脑部疾病相关的变异),图像配准应用广泛,比如婴儿地图集构建和基于群体的解剖变异性评估。因此通过医学图像配准得到的公认模板,为临床和病理学研究提供可靠的依据,辅助医生做出更为准确的诊断。大多数现有技术的配准方法都属于成对配准,即,仅考虑一对图像(个体和模板)。当将成对配准应用于大规模图像数据集时,需要模板并且通常将其作为数据集中的特定图像。其余所有的图像被视为个体并逐个配准到模板中。但是模板的确定非常重要,可能会带来很大偏差。因此出现了分组配准。分组配准能够消除这种系统偏差,因为群体中的所有图像都朝向公共空间扭曲并且同时估计它们的变形。共同空间是在共同配准过程中自发显现。根据图像相似度的度量方法,分组配准可以分为三类,(1)基于组平均图像的分组配准,使用成对配准方法来实现分组配准,构建估计出来的图谱(平均图像)作为数据集的公共空间。(2)基于图论的分组配准,不使用平均图像,而是每个图像可以直接计算其与其他图像的相似性。(3)基于特征的分组配准,可以捕获所有图像特定位置的相关性/不相关性,因此通过最大化图像空间中所有位置的相关性,可以将整个图像数据集配准到公共空间。一种新颖的群组配准方法(eHUGS),它有一个分层图,该图的每个节点代表单个图像。分层图捕获图像分布流形来得到图像分布信息,从而可以利用图像分布信息。更具体地说,低层次的图描述每个小组中的图像分布,并且高层次的图代表子组中具有代表性的图像之间的关系。在一个特定的图表示模型中,我们可以通过动态缩小图像流形上的图来将所有图像配准到公共空间。整个图像分布的拓扑在图收缩期间一直保持不变。虽然很多配准方法精度在提高,但是计算量都很大,尤其是要处理大量数据集的时候,在手术之前和手术期间获取的图像数据进行处理必须是快速和准确的,以便在临床诊断中有用。现在患者所能用到的数据正在稳步增加,对医学图像进行配准等处理时,常常要耗费大量的时间,因此脑图像配准算法的速度要求越来越高。对于分级图分组配准方法来说,对大量数据同时处理造成的运算负载可以分散在不同步骤内独立执行。输入的图像可以分层次聚簇到一个金字塔结构之中,在对各子簇内的图像分组配准后,再合成出最终的模板。这样,就将原先的一个大运算量问题分解成若干小运算量问题,使得分组配准算法能解决问题的规模可以提高更多的图像。但是随着更多的图像参与配准,计算代价依然太大,运行较慢,所耗的时间太多,比如20张图像一块配准,用eHUGS方法需要48小时。Hadoop由Apache基金会开发,是在分布式服务器集群上存储海量数据并运行分布式分析应用的一种方法。ApacheHadoop软件库是一个框架,其设计规模可以从单服务器扩展到几千台服务器。不依赖于硬件,具有高效性。Hadoop的体系结构主要通过HDFS(HadoopDistributedFileSystem)来实现对分布式存储的底层支持,并通过MapReduce来实现对分布式并行运算的程序支持。
技术实现思路
本专利技术所要解决的技术问题是:在Hadoop分布式计算的平台,利用MapReduce并行编程模型,基于现有的分级图分组配准算法,在保证了配准精度的前提下,提高多张脑图像分组配准的运行速度。本专利技术解决其技术问题所采用的技术方案包括如下步骤:步骤1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,HDFS文件系统把文件划分成多个块,划分后的块分散地存储于3个数据节点datanode上,为了达到负载均衡,每个datanode尽量均匀存储图像,每个datanode上的块信息复制2份存储于其他datanode上。步骤2.读入图像并计算相似度矩阵2-1.先调用simpleITK库来读入图像,然后转化为MapReduce可识别的格式ImageInputFormat,键key为图像的编号,value为图像数据;再计算两两图像间的距离矩阵,并将距离矩阵作为两两图像的相似度矩阵;2-2.并行计算直方图匹配,第一张图像作为标准并且每张图像为一个map,其余图像都与第一张图像进行直方图匹配。从而得到图像数据集合I,I={Ii|i=1,...,N};2-3.Map函数中最初输入的<key,value>为<I,Ii>,然后将两两图像组合起来输出为<(i,j),(Ii,Ij)>。在Reduce函数使用SSD来度量两两图像的相似度,即公式dij=||Ii-Ij||2,得到<key,value>为<(i,j),dij>;2-4.使用累加计数器计算每张图像的相似度总和,最小的那张为全局中心图像IO,即公式步骤3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组图像的距离矩阵的维度为N*N,先将矩阵中的n2个数据分配到3个数据节点上,将吸引度矩阵Ri和归属度矩阵Ai初始化,全都置为0。该方法的AP聚类所用的偏好值如下:3-1.计算吸引度矩阵R,最初吸引度和归属度都初始化为零,第一个Map函数输入<key,value>为<图像i,相似度Si>,<图像i,归属度ai>,输出<图像i,(相似度Si,归属度ai)>。第二个Map函数的输入为第一个Map函数的输出,通过吸引度和图像的相似度计算出吸引度,最后Reduce函数将结果合并输出<图像i,吸引度ri>,3-2.计算归属度矩阵A,Map函数输入<key,value>为<r,r(i,k)>,输出<k,r(I,k)>,Reduce函数输出<图像i,归属度ai>.3-3.确定聚类簇的中心,也就是在每个小组中确定该组的代表性图像在AP聚类中判断聚类簇的中心方法是,符合归属度加上吸引度大于0的点为该簇的中心,但是这是运用在图像配准中,因此使用MapReduce中的计数器Counter计算该组中的每张图像与全局中心图的相似度总和,最小的那张为该组的代表图像步骤4.构建分级图的连接体系4-1.构建小组内的连接体系,设定一个阈值,与代表性图像相似性较高的图像Ii{Ii∈Gα,i≠iα}才有连接,否则全都设为0;4-2.构建小组间的连接体系,每个代表性图像都与这张全局中心图像有连接,任意两个代表图像之间无连接,设为0;步骤5.计算变形场5-1.每张图像都与之有连接的图像进行两两配准,调用LogDemonReg函数将两两图像进行匹配,生成变形场ImaVelField,因此<key,value>为<(图像i,图像j),ImaVelField>,计算出多个变形场后调用SimpleITK库中的函数addDeformationField->Update()把多个变形场叠加起来。5-2.调用SimpleI本文档来自技高网
...

【技术保护点】
1.基于Hadoop并行加速的分级图分组配准方法,其特征在于包括如下步骤:步骤1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,HDFS文件系统把文件划分成多个块,划分后的块分散地存储于3个数据节点datanode上,为了达到负载均衡,每个datanode尽量均匀存储图像,每个datanode上的块信息复制2份存储于其他datanode上;步骤2.读入图像并计算相似度矩阵2‑1.先调用simpleITK库来读入图像,然后转化为MapReduce可识别的格式ImageInputFormat,键key为图像的编号,value为图像数据;再计算两两图像间的距离矩阵,并将距离矩阵作为两两图像的相似度矩阵;2‑2.并行计算直方图匹配,第一张图像作为标准并且每张图像为一个map,其余图像都与第一张图像进行直方图匹配;从而得到图像数据集合I,I={Ii|i=1,...,N};2‑3.Map函数中最初输入的<key,value>为<I,Ii>,然后将两两图像组合起来输出为<(i,j),(Ii,Ij)>;在Reduce函数使用SSD来度量两两图像的相似度dij,即公式...

【技术特征摘要】
1.基于Hadoop并行加速的分级图分组配准方法,其特征在于包括如下步骤:步骤1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,HDFS文件系统把文件划分成多个块,划分后的块分散地存储于3个数据节点datanode上,为了达到负载均衡,每个datanode尽量均匀存储图像,每个datanode上的块信息复制2份存储于其他datanode上;步骤2.读入图像并计算相似度矩阵2-1.先调用simpleITK库来读入图像,然后转化为MapReduce可识别的格式ImageInputFormat,键key为图像的编号,value为图像数据;再计算两两图像间的距离矩阵,并将距离矩阵作为两两图像的相似度矩阵;2-2.并行计算直方图匹配,第一张图像作为标准并且每张图像为一个map,其余图像都与第一张图像进行直方图匹配;从而得到图像数据集合I,I={Ii|i=1,...,N};2-3.Map函数中最初输入的<key,value>为<I,Ii>,然后将两两图像组合起来输出为<(i,j),(Ii,Ij)>;在Reduce函数使用SSD来度量两两图像的相似度dij,即公式得到<key,value>为<(i,j),dij>;2-4.使用累加计数器计算每张图像的相似度总和,最小的那张为全局中心图像IO,即公式步骤3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组图像的距离矩阵的维度为N*N,先将矩阵中的n2个数据分配到3个数据节点上,将吸引度矩阵Ri和归属度矩阵Ai初始化,全都置为0;该方法的AP聚类所用的偏好值如下:3-1.计算吸引度矩阵R,最初吸引度和归属度都初始化为零,第一个Map函数输入<key,value>为<图像i,相似度Si>,<图像i,归属度ai>,输出<图像i,(相似度Si,归属度ai)>;第二个Map函数的输入为第一个Map函数的输出,通过吸引度和图像的相似度计算出吸引度,最后Reduce函数将结果合并输出<图像i,吸引度ri>,3-2.计算归属度矩阵A,Map函数输入<key,value>为<r,r(i,...

【专利技术属性】
技术研发人员:颜成钢付祖贤孙垚棋张勇东
申请(专利权)人:杭州电子科技大学
类型:发明
国别省市:浙江,33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1