今天给大家分享一个关于神经网络原理的问题(神经网络示意图)。以下是这个问题的总结。让我们来看看。

一、神经网络算法的原理
有四种算法和原理,如下:
1.自适应共振理论(ART)网络。
自适应共振理论(ART)网络有不同的方案。ART-1网络由两层组成,即输入层和输出层。这两层是完全互连的,连接是在正向(自下而上)和反馈(自上而下)两个方向上进行的。
2.学习矢量量化(LVQ)网络
学习矢量量化(LVQ)网络由三层神经元组成,即输入转换层、隐藏层和输出层。网络在输入层和隐藏层之间完全连接,但在隐藏层和输出层之间部分连接,每个输出神经元与不同的隐藏神经元组连接。
3.科霍宁网络
Kohonen网络或自组织特征映射网络包含两层,一层是用于接收输入模式的输入缓冲层,另一层是输出层。输出层中的神经元通常以规则的二维阵列排列,每个输出神经元与所有输入神经元相连。连接权重形成与已知输出神经元连接的参考向量的分量。
4.霍普菲尔德网络
Hopfield网络是典型的递归网络,通常只接受二进制输入(0或1)和双极性输入(+1或-1)。它包含单个神经元,每个神经元与所有其他神经元相连以形成递归结构。
扩展数据:
人工神经网络算法的历史背景;
算法系统出现在20世纪40年代以后。它由多个连接权重可调的神经元组成,具有大规模并行处理、分布式信息存储和良好的自组织、自学习能力等特点。
BP算法,也称为误差反向传播,是人工神经网络中的一种监督学习算法。理论上,BP神经网络算法可以逼近任意函数,其基本结构由非线性变异单元组成,具有很强的非线性映射能力。
而且,网络的中间层数目、每层处理单元数目和学习系数等参数可以根据具体情况进行设置,非常灵活,在优化、信号处理与模式识别、智能控制、故障诊断等诸多领域具有广泛的应用前景。
参考来源:百度百科-神经网络算法
二、rbf神经网络的原理
rbf神经网络的原理是用RBF作为隐单元的“基底”,形成隐层空,这样输入向量就可以直接映射到隐层空,而不需要通过权重进行连接。
当RBF的中心点确定后,这个映射关系也就确定了。隐层空到输出空的映射是线性的,即网络的输出是隐单元输出的线性加权和,这里的权重是网络可调参数。其中,隐藏层的作用是将向量从低维的P映射到高维的H,使低维的线性不可分性到高维变得线性可分,主要是核函数的思想。
这样,网络从输入到输出的映射是非线性的,而对于可调参数,网络输出是线性的。网络的权值可以直接用线性方程组求解,从而大大加快了学习速度,避免了局部极小。
扩展数据
BP神经网络的隐节点使用输入模式和权重向量的内积作为激活函数的自变量,激活函数使用Sigmoid函数。每个调整参数对BP网络的输出具有相同的影响,因此BP神经网络是非线性映射的全局近似。
RBF神经网络的隐节点使用输入模式与中心向量之间的距离(如欧氏距离)作为函数的自变量,使用径向基函数(如高斯函数)作为激活函数。神经元的输入距离径向基函数中心越远,神经元(高斯函数)的激活程度越低。
RBF网络的输出与一些整定参数有关。例如,一个wij值只影响一个yi的输出(参考上文第2章网络输出),因此RBF神经网络具有“局部映射”的特性。
以上就是由优质生活领域创作者 嘉文社百科网小编 整理编辑的,如果觉得有帮助欢迎收藏转发~
本文地址:https://www.jwshe.com/1126279.html,转载请说明来源于:嘉文社百科网
声明:本站部分文章来自网络,如无特殊说明或标注,均为本站原创发布。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。分享目的仅供大家学习与参考,不代表本站立场。