【技术实现步骤摘要】
一种基于正则化的在线指数凹优化方法
[0001]本专利技术属于机器学习和在线凸优化领域,涉及一种关于指数凹损失函数在正则化下的优化方法,指数凹性是介于凸和强凸之间的性质。本专利技术提出了一种基于正则化的在线指数凹优化方法,命名为近端在线牛顿步(ProxONS)算法,并证明了对于任意的凸正则化函数,此算法可以获得相同O(dlog T)遗憾界,其中d是维度,T是时间范围。
技术介绍
[0002]在线凸优化可以看作是一个有结构的、不断重复的在线学习者和对手的博弈过程:在第时间t次迭代时候,在线学习者做出一个决策,对手给出一个凸损失函数F
t
(x
t
),在线学习者遭受损失后更新决策,然后进入下一轮博弈。在线学习者的目标是最小化遗憾,遗憾定义为在事后看来,在线学习者做出决策所付出的总代价与固定的最好决策总代价之间的差值:
[0003][0004]遗憾衡量了一个算法的性能,如果一个算法的遗憾作为T的函数是次线性的,意味着平均来看,该算法的性能与事后看来的最佳固定策略一样好。近年来,针对不同类型 ...
【技术保护点】
【技术特征摘要】
1.一种基于正则化的在线指数凹优化方法,其特征在于:包含如下步骤:步骤1.收集公开数据集,对数据集进行数据清洗和分析;每一条数据表示为一个向量/标签对的形式,d表示向量的维度,在在线学习模式下每轮迭代过程中方法将仅收到一条数据;步骤2.对参数进行初始化设置;输入参数有两个,分别为β,∈,β是用于调整学习率的超参数,∈>0是使得矩阵为正定矩阵的超参数;可学习参数有两个,分别为初始决策向量x1和正定矩阵A0,本步骤需要分别对以上四个参数进行初始化设置;步骤3.对获得的在线数据,根据学习到的模型给出决策,然后获得本轮基于真实标签与决策差异的损失;步骤4.根据损失函数信息做决策更新;决策更新主要分成两个部分:对每个损失函数中的指数凹部分执行ONS迭代、对正则化部分使用近端映射;步骤5.记录本轮学习到的参数,基于此得到一个模型,该模型用于步骤3中,然后重复步骤3和步骤4,对参数不断进行学习和更新,直至完成T轮博弈。2.如权利要求1所述的一种基于正则化的在线指数凹优化方法,其特征在于:所述步骤1具体包括:收集到公开数据集后,应该对数据集进行清洗,清洗步骤应包含处理缺失值、异常值和重复值,转换数据类型,离散化处理,处理离群值,验证数据和划分训练集和测试集等;最终得到的数据集的每一条数据应为向量/标签对的形式,d表示向量的维度,每轮迭代过程中仅收到一条数据样例。3.如权利要求1所述的一种基于正则化的在线指数凹优化方法,其特征在于:所述步骤2具体包括:步骤2.1输入参数初始化算法的输入参数有两个,分别为,β和∈,β是用于调整学习率的参数,∈>0是使得矩阵为正定矩阵的参数;β和∈应满足以下条件:为正定矩阵的参数;β和∈应满足以下条件:其中,G是函数f(x)的Lipschitz常数,表示其次梯度范数的上界,D表示决策集的直径;步骤2.2可学习参数初始化可学习参数有两个,分别为初始决策向量x1和正定矩阵A0;由于初始阶段,正则化函数r(x)是唯一可用的信息,因此设置x1=argmin
x∈K
r(x)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(5)argmin
x∈K
f(x)表示凸集K上的f(x)极小值点;设置正定矩阵A0=∈I
d
,I
d
为d维单位矩阵。4.如权利要求1所述的一种基于正则化的在线指数凹优化方法,其特征在于:所述步骤3具体包括:在第t轮迭代时候,收到在线数据,在线学习者根据已经学习到的模型做出一个决策x
t
,然后获得该条数据的真实标签,对手给出一个指数凹损失函数f
t
(x
t...
【专利技术属性】
技术研发人员:冯尊磊,杨旭,宛袁玉,宋杰,宋明黎,
申请(专利权)人:浙江大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。