基于满足Holder关系的alpha-RePU激活函数构建的数据处理系统及终端技术方案

技术编号:38377540 阅读:19 留言:0更新日期:2023-08-05 17:37
本发明专利技术公开了一种基于满足关系的α

【技术实现步骤摘要】
基于满足Holder关系的alpha

RePU激活函数构建的数据处理系统及终端


[0001]本专利技术涉及人工智能
,尤其涉及一种基于满足关系的α

RePU激活函数构建的数据处理系统及终端。

技术介绍

[0002]神经网络通常是由人工神经元节点组成的多层网络,常用于数据的分类和预测任务,根据网络的输入数据输出对应的分类或预测结果。其有一个输入层、一个或多个隐藏层和一个输出层;所有层都有一个或多个节点,每个节点都有一个权重值。
[0003]激活函数在神经网络中具有非常重要的作用,因为神经网络的非线性处理能力全部来自于激活函数的非线性,如果网络中没有激活函数或者激活函数为线性函数,其只能表示线性系统。在神经网络的每一层中,我们计算该层的输入与相应权重的乘积之和,然后对其应用激活函数,以获得该层的输出,并将其传递给下一层并作为下一层的输入。
[0004]神经网络的预测精度与所使用的激活函数的类型密切相关。常见的激活函数有Sigmoid、Tanh、ReLU、Maxout、RePU等。Sigm本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于满足关系的α

RePU激活函数构建的数据处理系统,其特征在于:包括神经网络模型,神经网络模型采用α

RePU激活函数进行数据处理;给定参数α∈(0,1],α

RePU激活函数的数学模型为:其中,c为大于0的常数;x表示自变量;σ(x)是一个连续函数。2.根据权利要求1所述的基于满足关系的α

RePU激活函数构建的数据处理系统,其特征在于:所述α

RePU激活函数的梯度数学模型为:3.根据权利要求1所述的基于满足关系的α

RePU激活函数构建的数据处理系统,其特征在于:在神经网络模型训练过程中,α

RePU激活函数在前向传播过程中的计算式为:z
(l)
=W
(l)
h
l
‑1+b
(l)
h
(l)
=σ(z
(l)
)其中,z
(l)
表示第l层中的预激活;W
(l)
表示第l层的权重矩阵;h
(l)
表示第l层的激活;b
(l)
表示第l层的偏差。4.根据权利要求3所述的基于满足关系的α

RePU激活函数构建的数据处理系统,其特征在于:在神经网络模型训练过程中,反向传播过程中的计算方式包括:前向传播中计算神经网络模型每一层的z
(l)
和激活值h
(l)
,直到最后一层;反向传播计算每一层的误差项;计算每一层参数的偏导数,并更新参数。5.根据权利要求4所述的基于满足关系的α

RePU激活函数构建的数据处理系统,其特征在于:每一层的误差项的计算式为:其中,δ
(l)
表示第l层的误差项;T表示转置。...

【专利技术属性】
技术研发人员:赵大志罗琴
申请(专利权)人:西南石油大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1