分析基于神经网络知识库的多神经网络集成方法
2013-04-29庄强张溪
庄强 张溪
摘 要: 科学技术的进步推动了神经网络技术的发展,且广泛地应用于我国的多个领域之中,实现了复杂问题的简单化,大大提高了工作人员的工作效率。本文对多神经网络集成方法进行了概述,并详细分析阐述了在BP网络集成的基础上进行非线性的研究案例。
关键词: 神经网络知识库 多神经网络集成 方法研究
随着我国科学技术的不断发展,神经网络技术已经获得广泛的应用,在我国的多个领域中使用,且已经小有成就。但是在使用的过程中还不成熟,仍存在很大的不足和问题,这就需要工作人员进行反复的试验和计算,以获得有关于神经网络的模型。神经网络模型在使用的过程中,会受到操作人员的影响,因此结果表现出来的也就不同。神经网络在实际使用的过程中,操作人员多是缺乏专业知识水平的普通工作人员,这就导致神经网络模型的使用效果得不到保障,因此需要系统的、可靠的神经网络模型操作的应用体系。
一、多神经网络集成方法
1.在神经网络知识库基础上发展而来的神经网络集成应用体系
在神经网络技术应用的过程中,要对工作人员所具备的神经网络方面的知识和经验进行培训,可以通过多元化的神经网络来学习和积累与神经网络有关的知识,神经网络所具备的实用性将获得大幅度的提高。现阶段,我国与神经网络技术有关的工程都较为复杂,大多数的工程都具备独立性较强的子系统、功能单元及部件等,将原本复杂的系统分解成多个简单的小系统。因此工作人员在遇到复杂的系统问题时,可以将复杂的问题分解成多个相对独立的部件、功能单元或者是子系统,进行信息资料的输出或者是输入。使用神经网络技术得到相关子系统的特点信息之后,就能够以此为基础面对系统复杂的问题,例如系统中的辨识度问题、同一个系统中包括多个子系统的神经网络问题等。
在上述想法的基础上,对神经网络知识库进行构建,并逐渐完善神经网络集成体系的框架。是按照将复杂的神经网络问题分解成多个子系统的神经网络问题,而不是针对一个相对较复杂的问题进行的。将复杂问题分解成多个子系统,能够充分体现复杂的神经网络技术所具备功能,并为神经网络问题的分类提供便利,不仅可以提高解决问题的工作效率,而且可以积累神经网络方面的经验。在神经网络问题的实际解决过程中,如果子系统所具备的属性是对数据资料的输出和输入是固定的话,就需要子系统记住这些匹配。也可以是将神经网络子系统中存在的知识库与神经网络中的仪器设备相匹配,那么在进行相关信息的输入时,就可以对神经网络知识库中的连接权、阈值等相关参数进行调用,而不进行反复性质的神经网络学习,这时神经网络所具备的功能就是对函数进行传递。如果在子系统的神经网络知识库中存在与子系统属性相匹配的网络部分,就需要在神经网络知识库中找到与初始值和缺省值相匹配的经验值,将其作为基础就可以对神经网络的子系统的连接权、阈值等相关參数进行训练;如果神经网络的知识库中不存在与子系统属性相匹配的网络部分,就要对神经网络的样本进行训练,并在神经网络问题求解的过程中对网络结构的设计和计算方法等进行学习和训练,以求真正与神经网络的知识库相融合。在神经网络知识库基础上发展而来的多神经网络集成体系如下图所示:
图 在神经网络知识库基础上发展而来的多神经网络集成体系
2.多神经网络集成的方法与流程
从神经网络的有关资料可以看出,多神经的网络集成体系中存在多个子系统且属于多层并联或者串联的结构体系。从资料明显可以看出,子神经网络系统的结构较为简单,为神经网络进行计算和训练等操作提供了便利。在对复杂的网络问题进行分解的过程中,要进行反复的摸索和计算,以求得到最优化的结果,并把结果存储在神经网络的知识库中,为下一次的操作提供经验和学习的基础。在神经网络系统中存在多个层次,可以将位于下一层的输出当做是上一层的输入使用,位于同一层次的神经网络都可以被上一层的神经网络使用,直到到达神经网络的顶层为止。
二、在BP网络集成的基础上进行非线性的研究案例
本文通过复杂的非线性函数案例对神经网络的集成方法进行验证,以有效证明神经网络集成方法所具备的有效性、稳定性、可靠性和可行性。在神经网络函数的研究过程中,人们一直都比较注重对神经网络函数逼近原理进行研究,但是没有更为明确的说明。
1.非线性函数逼近原理的举例描述
通过神经网络进行函数的非线性映射的描述,函数F■(x■,x■)中的x■,x■要符合以下要求:x■,x■∈[-1,1]。函数表示为:
F■(x■,x■)=sin■∈(πx■)+cos■(πx■)+2sin(πx■)cos(πx■)
在函数中根据△x■=△x■=0.05的原则进行取点的操作,并对函数进行神经网络的输入和输出操作的训练,以求得出函数公式最理想的输出结果。
2.函数问题的解题方法
(1)在函数公式求解的过程中,需要用到神经网络知识库中的逼近原理。
(2)在函数公式求解的过程中,需要进行反复的摸索和拼凑,以实现对神经网络拓扑结构的设计,通过BP算法的使用,实现对函数公式求解的目的。
(3)在函数公式的求解过程中,如果使用多神经网络集成方法的话,就要对神经网络的结构进行设计,以为函数公式的求解提供便利。
F■(x■,x■)=sin■(πx■)+cos■(πx■)+2sin(πx■)cos(πx■)
=(sin(πx■)+cos(πx■))■
根据神经网络中可以将复杂的问题进行分解成多个子系统的原则,将函数公式分解成以下四个简单的函数问题:
f■(x■)=sin(πx■)
f■(x■)=cos(πx■)
f■(f■,f■)=sin(πx■)+cos(πx■)=f■f■
F■(f■)=f■■
对分解之后的函数公式进行求解,通过BP算法的求解,从而达到对函数公式求解的目的。
3.函数求解过程中所使用的方法对比
在使用神经网络进行求解的过程中,神经网络的结构呈现出较为复杂的特点,由于缺少经验作为基础,因此只能进行多次的尝试和摸索,比较花费人力,浪费时间,得到的结果还不理想,存在一系列的问题,例如速度慢、规律复杂等。本文介绍的案例就进行了反复的尝试,得到的输出三维图与最理想的三维图之间还存在差异。
把原来较为复杂的函数公式分解成多个简单的函数公式之后,在通过多神经网络集成方法进行求解的过程中,每个函数公式都很简单,在训练的过程中,也不存在大量的拼凑和尝试,能够在短时间内就确定函数公式结构的参数。将与函数公式有关的阈值和训练值等都存储在神经网络的知识库中,在遇到同类型的函数公式求解时,就可以从神经网络知识库中直接调用即可,不仅计算的速度快,输出结果的精确度也很高。通过神经网络集成方法找到的函数公式的输出三维图,与最优的三维图之间非常的相似,差异不大,可以忽略不计。
三、结语
在神经网络知识库的基础上使用多神經网络集成方法进行问题的求解时,不仅可以大大节省求解所用的时间,而且可以大大提高输出结果的精确度。可以将复杂的问题分解成多个简单的问题,以提高神经网络的工作效率,对计算方法进行创新和发展。
参考文献:
[1]林民龙.基于神经网络集成的增量式学习[D].中国科学技术大学,2012.
[2]唐东波.基于神经网络集成的电信客户流失预测建模及应用[J].大众商务,2010(06).
[3]李明爱,王蕊,郝冬梅.基于神经网络集成技术的运动想象脑电识别方法[J].北京工业大学学报,2011(03).
[4]刘大有,张冬威,李妮娅,刘杰,金弟.基于网络聚类选择的神经网络集成方法及应用[J].吉林大学学报,2011(04).
[5]潘远.粗集约简的神经网络集成在遥感影像分类中的应用[D].辽宁工程技术大学,2012.
[6]汤红忠,徐瑜,张东波,郭雪峰.基于目标数据修正的差异性神经网络集成方法[J].信息与控制,2013(01).
江西省教育科学“十二五”规划课题,题名:基于神经网络的高职气象类学生网络学习评价模式论证;课题编号:12YB207。