【技术实现步骤摘要】
一种基于深度学习的Cox模型预测疾病预后生存率方法
[0001]本专利技术属于计算机深度学习应用于生存分析领域,特别涉及一种基于深度学习的Cox模型预测疾病预后生存率方法;具体说是一种基于Transformer的Cox模型用于预测疾病预后生存率的方法。
技术介绍
[0002]Transformer是目前最流行的成功应用于生存分析的深度学习模型,生存分析方法大致可分为三种类型:参数法、非参数法和半参数法。其中,参数化方法通常具有较好的分析结果。然而,它的应用范围较窄,因为样本的生存时间需要满足特定的分布类型,如Weibull分布、指数分布、伽马分布等。非参数方法更适合单变量分析,不需要生存数据满足任何特定的分布。非参数方法的代表是寿命表法和Kaplan
‑
Merier方法。半参数法的典型算法是Cox比例风险回归模型(Cox Proportional Hazards Regression Model,CPH)。CPH是多元线性回归模型,它隐含了一项比例风险假设。
[0003]许多研究人员对CPH模型进行了扩展,以更好地预测生存时间和估计生存率。Faraggi和Simon首先提出用神经网络代替CPH模型协变量的线性组合。然而,该模型未能超过标准的Cox模型。之后,Xiang,Katzman,Luck和Yousefi等人通过使用更复杂的网络架构和训练损失改进了CPH模型。Mobadersany和Zhu用卷积神经网络取代了Katzma所提模型的多层感知机(MLP),并将Cox模型扩展到图像。此外,多任 ...
【技术保护点】
【技术特征摘要】
1.一种基于深度学习的Cox模型预测疾病预后生存率方法,其特征在于,预测疾病预后生存率是采用包括:数据输入模块;数据预处理模块;预测模型构建模块;模型训练模块;模型测试模块;预测结果展示模块的Cox模型应用机器深度学习方法进行预测,其步骤如下:步骤1:数据输入模块,用于获取疾病预后数据;步骤2:数据预处理模块,用于对待预测的疾病数据进行数据的预处理,同时数据按照7:3的比值分为训练样本集和测试集两组;步骤3:预测模型构建模块,用于构建基于Transformer的Cox模型和预测模型的损失函数;步骤4:模型训练模块,将步骤3构建好的预测模型用于处理步骤2构造的训练集;步骤5:模型测试模块,步骤4训练好的模型作为最终应用模型,利用步骤2得到的测试样本集对训练好的模型进行测试;步骤6:预测结果展示模块,根据步骤4中拟合好的模型,建立相应的预测模型,以患者疾病相关数据作为输入,评估生存风险预测模型的优劣,得到相应的生存率
‑
时间曲线。2.根据权利要求1所述的基于深度学习的Cox模型预测疾病预后生存率方法,其特征在于,所述步骤2中,数据预处理模块,对待预测的疾病预后预处理,具体是将样本数据分为连续变量和分类变量,对分类变量进行one
‑
hot编码,对连续变量进行归一化处理。3.根据权利要求1所述的基于深度学习的Cox模型预测疾病预后生存率方法,其特征在于,所述步骤3中,预测模型构建模块,用于构建基于Transformer的Cox模型和预测模型的损失函数,具体包括:3
‑
1:嵌入层:嵌入过程是通过将分类和数值协变量输入两个独立的全连接层来实现的;其中数值协变量还包括个体的事件时间t、分类协变数量D
c
和数值协变数量D
n
;对于分类协变量通过一个嵌入矩阵在d
k
维空间中表示;对于数值协变量通过一个嵌入矩阵对其进行投影;由于不处理序列数据,所以在嵌入层中不包括位置编码;事件时间t的嵌入t
′
直接传递到子网络层,其他协变量的嵌入在进入Transformer层之前被拼接起来;3
‑
2:Transformer层为了进一步促进协变量之间的交互以实现高级组合嵌入,叠加了多个Transformer层;在每个Transformer层中,每两个子层之间都添加一个残差连接,然后进行层归一化;对于每个患者,Transformer层的输入如下:x
′
=[x
′1,x
′2,
…
,x
′
D
],其中D为所有输入层协变量的个数,D=D
c
+D
n
‑
1;首先,将Transformer的多头自注意力应用于输入x
′
来自动学习协变量之间的交互:x
″
=LayerNorm(MultiHeadAttention(x
′
)+x
′
).对于h个平行的注意力头,多头注意力的定义为:MultiHeadAttention=Concat(head1,head2,
…
,head
h
)W
o
,其中W
o
是可学习的权重矩阵,每个头计算协变量嵌入的所有元素之间的缩放点积注意力;第i个头的缩放点积注意力为:
其中Q
i
、K
i
和V
i
分别表示键矩阵、查询矩阵和值矩阵:Q
i
=x
′
W
iQ
,K
i
=x
′
W
iK
,V
i
=x
′
W
iV
,其中W
iQ
,W
iK
,W
iV
是可学习的权值矩阵,用于将原始嵌入变换成相同的维度;然后,将每个协变量的注意力嵌入x
″
j
输入到前馈神经网络(FNN)中,再进行残差连接和层归一化,x
″′
j
=LayerNorm(FNN(x
″
j
)+x
″
j
),j=1,2,
…
,D,对于每一层Transformer,嵌入的输出由上述公式导出;可以堆叠L层Transformer,第j个协变量的嵌入表示为:x
′
j
→
x
″′
(1,j)
→
x
...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。