当前位置: 首页 > 专利查询>福州大学专利>正文

移动边缘计算中基于Actor-Critic深度强化学习的任务调度方法技术

技术编号:40961021 阅读:35 留言:0更新日期:2024-04-18 20:39
本发明专利技术提供一种移动边缘计算中基于Actor‑Critic深度强化学习的任务调度方法,首先对所提出的移动边缘计算中的任务调度问题进行形式化定义。其次提出一种结合深度强化学习和掩码机制的任务调度方法。最后实现了所提出的系统环境和调度方法,并进行了大量的实验对方法的有效性进行证明。实验结果显示,本发明专利技术方法能应对面对动态多变的MEC环境,逼近最优的任务调度策略,有效地提高服务质量。

【技术实现步骤摘要】

本专利技术属于物联网、移动边缘计算,具体涉及一种移动边缘计算中基于actor-critic深度强化学习的任务调度方法。


技术介绍

1、随着物联网(internet-of-things,iot)的迅猛发展,各类智能设备不断出现且融入了人们生活的方方面面。根据idc报告,预计至2025年,全球范围内将部署超过416亿台智能设备,为用户提供自动驾驶、虚拟现实、智慧家居等各类智能应用。通常,这些新兴的智能应用对设备性能具有较高要求且会伴随生成大量数据。在面对这些智能应用时,传统集中式的云计算模式暴露出了网络拥塞、时延高、开销大等问题,难以满足其对性能和实时性的高要求。为了缓解这个问题,移动边缘计算(mobile edge computing,mec)将计算和存储资源部署在了网络边缘,用户可将来自智能应用的计算任务卸载至配备服务器的mec节点进行处理。相比云计算环境,mec环境中的任务调度面临着以下挑战:

2、(1)mec环境中的负载状况通常与用户的工作、生活方式息息相关,这造成了mec节点中不同时段不同服务器的负载分布不均;

3、(2)me本文档来自技高网...

【技术保护点】

1.一种移动边缘计算中基于Actor-Critic深度强化学习的任务调度方法,其特征在于:针对MEC环境下的任务调度模型,定义状态空间、动作空间与奖励函数,将优化问题形式化为马尔可夫决策过程,并采用基于近端策略优化的自适应任务调度方法;基于Actor-Critic DRL框架,通过约束策略更新幅度与掩码机制相结合,以调度用户任务并避免智能体做出违反系统约束的动作。

2.根据权利要求1所述的移动边缘计算中基于Actor-Critic深度强化学习的任务调度方法,其特征在于:

3.根据权利要求2所述的移动边缘计算中基于Actor-Critic深度强化学习的任务调度方法,...

【技术特征摘要】

1.一种移动边缘计算中基于actor-critic深度强化学习的任务调度方法,其特征在于:针对mec环境下的任务调度模型,定义状态空间、动作空间与奖励函数,将优化问题形式化为马尔可夫决策过程,并采用基于近端策略优化的自适应任务调度方法;基于actor-critic drl框架,通过约束策略更新幅度与掩码机制相结合,以调度用户任务并避免智能体做出违反系统约束的动作。

2.根据权利要求1所述的移动边缘计算中基于a...

【专利技术属性】
技术研发人员:陈哲毅黄一帆曾旺
申请(专利权)人:福州大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1