信息处理方法和设备技术

技术编号:2891467 阅读:295 留言:0更新日期:2012-04-11 18:40
建立一棵分类树,它允许直接识别输入模式,例如图像或声音,无需附加处理,例如对有高阶特征变量的未处理模式数据进行的预处理;信息处理方法和设备可进行分级预处理,以分级预处理某种学习模式,可根据分级预处理所处理的学习模式,建立一棵分类树,并可用该分类树进行识别。(*该技术在2015年保护过期,可自由使用*)

【技术实现步骤摘要】

本专利技术涉及与分类方法有关的信息处理方法和设备,该分类方法用于把图象、声音和字符之类的模式分成类别。本专利技术还涉及适合于识别图象、声音和字符信息的信息处理方法和设备。在模式识别的先有技术方法中,已知一种使用神经网络的识别方法。神经网络的一大特点在于可提供一种以错误反向传播算法为代表的高效学习算法。由于这一特点,已在广泛的模式识别领域采用神经网络。模式识别的另一方法是,用分类树逐步把模式分成类别的方法。例如,在JP-B-6-52537中公开的模式识别系统中,特征轴被编号,并按照号码分类这些轴。还知道一种根据特征变量的主耦合的分类方法。一般说来,使用特征变量主耦合提供的结果,要好于逐一使用特征轴的结果。然而,上述先有工艺技术有下列缺点。1.可对其使用神经网络的特征变量的范围在10阶以内,并且当输入变量包括较高阶的变量时,需要某种类别预分离或字符抽取。此外,当进行象类别预分离或字符抽取之类的预处理时,就可能在预处理期间带入错误,并且即使以高精度建造神经网络,最终识别率也不高。2.可对其使用分类树的特征变量的范围亦在10阶以内,并且当较高阶的特征变量要被处理时,实际上不可能建立分类树。3.在实际的模式识别中,未处理数据的特征变量的阶在100与1000之间。这样,不可能使用现有的神经网络和分类树,它们实际上只允许将10阶用于实际的模式识别。本专利技术包括一个分级预处理步骤,用于分级地预处理输入学习模式;和一个分类树建立阶段,用于建立一个基于在分级预处理步骤中处理的学习模式之上的分类树。其结果是,即使输入变量有高阶特征,也可高效率地获得高识别系数。通过在分级预处理步骤中逐步退化学习模式的特征变量,本专利技术获得了高效分类。本专利技术包括一个发展变量判别步骤,用于在分类树建立步骤中根据较高分级结构与较低分级结构之间的关系来选择变量;并且根据发展变量判别步骤的结果向较低分级结构而发展退化变量,以获得高效分类。本专利技术用建立的分类树去识别输入模式,以便高效地获得高识别系数。本专利技术根据建立的分类树来建立一个识别模板,并用该模板识别输入模式,以便高效地获得高识别率。本专利技术通过输入手写字符模式作为输入模式,允许以高识别系数高效地识别手写字符。本专利技术通过输入光读字符模式作为输入模式,允许以高识别系数高效地识别光读字符模式。本专利技术通过输入声音模式作为输入模式,允许以高识别系数高效地识别声音。附图说明图1表示在本专利技术的一个实施例中用于建立一本模式识别字典的方法。图2表示该实施例的信息处理设备结构的方块图。图3表示本实施例所用的神经网络的结构。图4表示该实施例的模式识别字典建立过程中流的流程图。图5表示一种学习模式。图6表示一种分级学习模式。图7表示该实施例的一种分类树建立过程。图8表示该实施例的一种分类树,和图9表示一种先有技术神经网络的应用。参照附图,解释本专利技术的优选实施例。实施例1图2表示一个应用了本专利技术模式识别方法的信息处理设备的结构。一个模式识别设备包括一个模式输入装置201,一个显示装置202,一个中央处理机(CPU)203,和一个存储器204。模式输入装置201包括一个用于联机字符识别的数字化转换器,在该转换器上用指示笔输入的字符或图形的坐标数据被传送到CPU203。模式输入装置不限于数字化转换器和指示笔的组合,而可以用一个扫描器(用于输入二进制模式数据)或一个麦克风(用于输入声音模式)来代替指示笔,只要它能够输入一个要被识别的模式即可。显示装置202可显示由模式输入装置201输入的未处理的模式数据以及由CPU203识别的结果。CPU203可识别输入模式,并且根据存储器204中所存储的控制程序执行一个示于流程图中的过程,这将在下面来描述,以及控制全部装置。存储器204存储一个识别程序和一个由CPU203使用的字典,还存储由识别程序使用的变量参数和在识别过程中产生的数据。图1表示本实施例中一种模式识别字典的建立方法和一种模式识别方法。号码101表示一种未处理的学习模式;号码102表示一种分级预处理,用于把未处理的学习模式传送到神经网络;号码103表示一种由该神经网络处理的分级学习模式;号码104表示分类树的建立,以建立一个基于分级学习模式的分类树;号码105表示发展变量判别,它在分类树建立期间被分类树的建立所使用的;以及号码106表示一个最终分类树。在本实施例中,输入是未处理学习模式,输出是分类树。参照图3至7,解释本专利技术的操作。将绘于一个16×16网格上的10个不同的数字‘0’至‘9’假定为输入模式的类别。图5示出了一个‘0’输入模式。假设为建立字典而输入的学习模式包括‘0’至‘9’,每个类别包括100个模式。即,为每一个类别建立100个模板。从这些学习模式建立的模板由LTi,j代表(在学习模板i,j中,i是表示一个类别的一个后缀,且0≤i≤9;和j是表示一个模板号码的一个后缀,且1≤j≤100)。根据上述假设,可构成一个如图3所示的四分级结构的神经网络。图3中的四分级结构分别包含2×2,4×4,8×8和16×16个神经细胞。如图4的流程图所示,本实施例的模式识别字典建立过程是通过两个步骤来执行的,即,一个神经网络发展阶段和一个分类树建立阶段。各阶段逐一解释如下。(1)神经网络发展阶段按照图3的最下层16×16个神经细胞来输入学习模板。假设在输入模式(LTi,j)的白色部分,神经细胞是断开的;而在黑色部分,神经细胞是接通的。(在下面的描述中,黑色和神经细胞接通,以及白色和神经细胞断开,都可互换使用。)神经网络的结构是很简单的。即,如果在下层中的一个2×2神经细胞组上至少有一个接通的神经细胞,则向上层以常规方式处理输入模式,在最接近的上层中相应的神经细胞被接通。在神经网络发展过程中处理图5所示的一个学习模板,以建立一个包含第一层至第四层的神经网络,如图6所示。输入模式的特征空间形成一个256阶的超立方体网格(2256)。它在第三层被退化成264,在第二层退化成216,和在第一层退化成24。神经网络的结构/规则不限于上述情况。(2)分类树建立阶段全部学习模板(LTi,j)(10个类别,每个类别有100个模式),在神经网络发展阶段(1)中被发展成图3所示的神经网络。建立分类树是从上(第一)层到下(第四)层进行的,与发展神经网络相反。一个根节点是从图3的最高层(第一层2×2)上面的虚拟神经细胞开始的。象发展学习模板(LTi,j)一样,在图3的最高阶层(2×2)中的至少一个神经细胞是接通的。(除了当全部白色的学习模板出现时,在最高阶层(2×2)中的神经细胞不是都被断开)。因此,对全部学习模板(LTi,j)来说,虚拟最高阶神经细胞的活动是接通的。因为最高阶层(2×2)有24=16个状态(更准确地说,有15个状态,因为没有全部断开的状态,如上述解释),故从该根节点扩展出16个分支(见图7)。对每个分支中出现的学习模板(LTi,j)数进行计数。随后根据结果处理分支。(1)不出现学习模板(LTi,j)删除该分支。(2)在学习模板(LTi,j)中只出现某个类别(例如‘1’)的模板如果分支被确定,则类别将被唯一地确定,且该分支被确定为一个叶子,并被赋与一个类别号码(例如‘1’)。(3)不出现上述的(1)和(2)情况,即,混合地出现多个本文档来自技高网...

【技术保护点】
一种包括下列步骤的信息处理方法: 分级地预处理一种输入学习模式;和 根据所述分级预处理步骤中处理的学习模式,建立一个分类树。

【技术特征摘要】
...

【专利技术属性】
技术研发人员:吉井裕人
申请(专利权)人:佳能株式会社
类型:发明
国别省市:JP[日本]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1