【技术实现步骤摘要】
一种基于人工智能伦理备选规则的伦理风险防范方法
[0001]本专利技术涉及领域,提供了一种基于人工智能伦理备选规则的伦理风险防范方法
。
技术介绍
[0002]人工智能伦理是指在研究
、
开发和应用人工智能技术时,需要遵循的道德准则和社会价值观,以确保人工智能的发展和应用不会对人类和社会造成负面影响,为了确保人工智能的发展和应用符合人类的道德标准和社会价值观,需要大家共同努力,建立起合适的法律
、
道德
、
行业标准和监管机制
。
同时,需要加强人工智能伦理的研究和教育,培养人工智能专业人才的伦理意识和社会责任感
。
[0003]随着人工智能技术的不断发展,交通,医疗以及教育等诸多领域产生极大变革,人工智能技术及其策略在生产生活中得到极大应用,但碍于技术水平以及人工智能基于大数据不断自我学习的特点,在复杂场景下的决策虽不断契合人类的价值观念,但仍无法避免带来诸多风险,这使得基于人工智能的伦理规范被迫切需要
。
[0004] ...
【技术保护点】
【技术特征摘要】
1.
一种基于人工智能伦理备选规则的伦理风险防范方法,其特征在于:所述伦理风险防范方法包括如下步骤:步骤一
、
伦理备选规则获取,获取多个人工智能伦理规则,作为多人工智能伦理备选规则,伦理规则的获取包含通用型基本规则以及若干基于不同事件场景的子规则,子规则的应用范围小但精确,且不与基本规则冲突;同时伦理规则数量可根据具体应用场景进行调整;步骤二
、
事件场景获取,获取多事件场景;步骤三
、
规则风险判断,将多个获取的事件场景通过多人工智能伦理备选规则中每一个人工智能伦理规则进行判断是否符合
,
每一个人工智能伦理规则与对应事件场景通过人工智能规则模型进行判断,将获取的符合的事件场景作为人工智能伦理规则的事件场景,然后将获取的不符合的事件场景作为人工智能伦理规则的风险事件场景,同时对不符合的事件场景用户发出遵守多人工智能伦理规则的指令;假设多人工智能伦理备选规则为
S,S
=
{S1,S2,S3,
…
,S
n
},
其中
S1,S2,S3,
…
,S
n
为每一个人工智能伦理规则,
θ1,
θ2,
θ3,
…
,
θ
n
为每一个人工智能伦理规则对应的风险评估结果,其中
θ1,
θ2,
θ3,
…
,
θ
n
∈{0,1}。
所以多人工智能伦理备选规则的风险评估结果可以表示为:即时表示多人工智能伦理备选规则风险评估通过,事件场景可以执行;时表示多人工智能伦理备选规则风险评估不通过,事件场景需要警示
。
步骤四
、
风险防范,将每个符合的事件场景中的人工智能伦理规则的所有用户行为,作为所有合规人工智能体行为,将每个不符合的事件场景下的所有用户发出遵守多人工智能伦理规则的指令,并提醒在每个不符合的事件...
【专利技术属性】
技术研发人员:黄舒婷,秦明利,韩丽娜,付珂,郝君临,马新月,
申请(专利权)人:大连理工大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。