基于3D建模与口腔解剖的动态发音教学模型构建方法技术

技术编号:27395238 阅读:21 留言:0更新日期:2021-02-21 14:05
本发明专利技术公开了一种基于3D建模与口腔解剖的动态发音教学模型构建方法,包括:根据头颈部解剖模型中的口腔解剖模型,获取各个发音器官的生理结构;根据各个音素的发音属性,得出每个音素发音过程的三维描述;根据训练出的语音教学经验模型设计发音教学流程;结合各个发音器官的生理结构、每个音素发音过程的三维描述、以及发音教学流程制作三维动画互动教学模型。本发明专利技术基于三维口腔解剖模型,结合各个音素的发音属性,并运用语音教学经验,使每一个音素的发声方法得以用三维动画模型直观表示,从而达到在线发音教学中3D图示化、直观化的教学反馈,让学习者可以更加准确地捕捉关键发音部位的变化,提高了教学效果。提高了教学效果。提高了教学效果。

【技术实现步骤摘要】
基于3D建模与口腔解剖的动态发音教学模型构建方法


[0001]本专利技术涉及语音教学
,特别涉及一种基于3D建模与口腔解剖的动态发音教学模型构建方法。

技术介绍

[0002]在COVID-19病毒全球性爆发的大背景下,人工智能在教育领域的发展势头迅猛,在线教学逐渐成为大家乐于接受的学习方式。新的教学方式也给传统课堂教学模式提出了新的挑战。传统课堂的发音教学主要依靠老师通过语言、教具或者肢体的演示,让学生自己领悟具体的动作,这样的教学方式模糊性很高,并且难以满足在线教学及计算机辅助发音教学反馈的需要。
[0003]在发音教学方面,在缺少教具辅助与教师当面演示和指导的情况下,如何让学习者快速理解语音学习的要领,进行有效地模仿学习,成为新形势下语音教学工作者的思考方向。
[0004]近年来,计算机辅助发音教学技术(Computer aided pronunciation teaching,CAPT)开始在发音教学在线平台中进行应用,如何更好的给予学习者发音问题的反馈也进行了多种尝试。通过GOP(Goodness of pronunciation)的发音分数反馈可以一定程度上帮助学习者认识到自己发音中的优劣。例如,以发音属性的方式进行发音问题的反馈,可以让学习者更清晰地认识到自己发音问题所在及如何进行改正。然而,脱离教师现场指导,通过文字的描述或过于专业的指导方式,学习者难以捕捉关键发音部位的变化,甚至不能理解口腔各部位的具体指称,进而难以产出正确的发音。
[0005]在发音语音学研究方面,有学者通过使用EMA对唇部和舌头的移动轨迹进行追踪,从而获取每个音素的唇舌动态数据。从发音反馈的角度来看,这种方式可以比较直观的反映目标语音的口腔变化。但是这种方式数据采集和分析的成本高且难度较大,主要表现在需要将传感器贴在发音人的特定位置的发音器官上,会给发音人带来强烈不适感,影响发音的自然度;传感器电极脱落,可能造成数据采集失败或采集不准确;传感器电极数量有限,数据建模有可能面临数据稀疏等问题。并且这种方式得到的发音数据分析难度较大,难以满足发音教学的灵活需求。

技术实现思路

[0006]本专利技术的目的在于提供一种基于3D建模与口腔解剖的动态发音教学模型构建方法,在缺乏教师的当面指导、教具的直接使用的线上教学和计算机辅助语音教学场景中,能够更加直观、简明、有针对性的进行语音教学。
[0007]为解决上述技术问题,本专利技术的实施例提供如下方案:
[0008]一种基于3D建模与口腔解剖的动态发音教学模型构建方法,包括以下步骤:
[0009]根据头颈部解剖模型中的口腔解剖模型,获取各个发音器官的生理结构;
[0010]根据各个音素的发音属性,得出每个音素发音过程的三维描述;
[0011]根据训练出的语音教学经验模型设计发音教学流程;
[0012]结合各个发音器官的生理结构、每个音素发音过程的三维描述、以及发音教学流程制作三维动画互动教学模型。
[0013]进一步地,所述口腔解剖模型中的发音器官包括:调音器官、共鸣腔和声源;
[0014]所述调音器官包括主动发音器官和被动发音器官,所述主动发音器官包括唇、舌、软腭、小舌,所述被动发音器官包括齿、齿龈、硬腭;
[0015]所述共鸣腔包括口腔、鼻腔、咽腔;
[0016]所述声源包括声带。
[0017]进一步地,所述各个音素的发音属性包括各个音素的发音部位、发音方法、声带是否震动。
[0018]进一步地,所述制作三维动画互动教学模型的步骤包括:
[0019]针对口腔解剖模型中各个发音器官的非完全可见或完全非可见的情况,从发音器官可视化的角度出发,在Unity软件中制作动画,并设计交互模式,构建能够产生同步语音动画的可视化三维虚拟人头及其口腔系统;
[0020]根据从多个侧面观察到的发音时口腔内各个发音器官的变化,采用皮肤、肌肉半透明化技术,体现发音器官间互相接触的信息。
[0021]进一步地,所述制作三维动画互动教学模型的步骤还包括:
[0022]以口腔内各个发音器官的肌肉运动为依据,构造并设计各个发音器官运动时的三维动画。
[0023]进一步地,对于牙齿、硬腭、下颚这类在发音过程中仅产生微小形变,甚至不产生形变的发音器官,将其看作刚体并进行运动模拟;
[0024]对于上下唇、舌头、软腭这类在发音过程中产生大量形变的发音器官,则模拟其形变效果,通过给动画添加FFD属性实现特殊柔软肌肉的仿真运动。
[0025]进一步地,在Unity软件中进行交互模式设计的步骤包括:
[0026]建立基本交互框架;
[0027]通过脚本编程实现人机交互效果,包括头部视角的移动旋转、肌肉的选择性半透明化、以及场景切换。
[0028]进一步地,所述肌肉的选择性半透明化包括:
[0029]在目标肌肉的material属性中将颜色模式改成transparent,之后调节颜色透明度,透明度的值通过代码用button或者输入框进行控制。
[0030]进一步地,所述场景切换包括:
[0031]编辑场景切换代码;
[0032]给画面场景添加转换按钮;
[0033]点击所述转换按钮触发场景切换代码,实现场景的切换。
[0034]进一步地,在Unity软件中设计交互模式还包括:
[0035]声音与动作同步、动画加速减速、头部横剖面视角、只保留单个发音器官、只保留骨头、调整观察视角。
[0036]本专利技术实施例提供的技术方案带来的有益效果至少包括:
[0037]本专利技术基于三维人体头颈部解剖模型中的口腔解剖模型,结合各个音素的发音属
性,并运用语音教学经验,使用3D技术驱动口腔发音器官的移动,呈现出每一个音素的直观的动态舌位变化过程,使每一个音素的发声方法得以用三维动画模型直观表示,并制作友好的人机交互模式,从而达到在线发音教学中3D图示化、直观化的教学反馈,让学习者可以更准确地捕捉关键发音部位的变化,提高了教学效果。
附图说明
[0038]为了更清楚地说明本专利技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0039]图1是本专利技术实施例提供的基于3D建模与口腔解剖的动态发音教学模型构建方法的流程图。
具体实施方式
[0040]为使本专利技术的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术实施方式作进一步地详细描述。
[0041]本专利技术的实施例提供了一种基于3D建模与口腔解剖的动态发音教学模型构建方法,如图1所示,该方法包括以下步骤:
[0042]根据头颈部解剖模型中的口腔解剖模型,获取各个发音器官的生理结构;
[0043]根据各个音素的发音属性,得出每个本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于3D建模与口腔解剖的动态发音教学模型构建方法,其特征在于,包括以下步骤:根据头颈部解剖模型中的口腔解剖模型,获取各个发音器官的生理结构;根据各个音素的发音属性,得出每个音素发音过程的三维描述;根据训练出的语音教学经验模型设计发音教学流程;结合各个发音器官的生理结构、每个音素发音过程的三维描述、以及发音教学流程制作三维动画互动教学模型。2.根据权利要求1所述的基于3D建模与口腔解剖的动态发音教学模型构建方法,其特征在于,所述口腔解剖模型中的发音器官包括:调音器官、共鸣腔和声源;所述调音器官包括主动发音器官和被动发音器官,所述主动发音器官包括唇、舌、软腭、小舌,所述被动发音器官包括齿、齿龈、硬腭;所述共鸣腔包括口腔、鼻腔、咽腔;所述声源包括声带。3.根据权利要求2所述的基于3D建模与口腔解剖的动态发音教学模型构建方法,其特征在于,所述各个音素的发音属性包括各个音素的发音部位、发音方法、声带是否震动。4.根据权利要求3所述的基于3D建模与口腔解剖的动态发音教学模型构建方法,其特征在于,所述制作三维动画互动教学模型的步骤包括:针对口腔解剖模型中各个发音器官的非完全可见或完全非可见的情况,从发音器官可视化的角度出发,在Unity软件中制作动画,并设计交互模式,构建能够产生同步语音动画的可视化三维虚拟人头及其口腔系统;根据从多个侧面观察到的发音时口腔内各个发音器官的变化,采用皮肤、肌肉半透明化技术,体现发音器官间互相接触的信息。5.根据权利要求4所述的基于3D建模与口腔解剖的动态发音教学模型构建方法,其特征在于,所述制作三维动画互动教学模...

【专利技术属性】
技术研发人员:解焱陆冯晓莉邓雅月李博学
申请(专利权)人:北京语言大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1