neuralnetworksandfuzzysystemschapter内容摘要:

,则第 个突触连接被抑制 :是单调非减函数,其作用就是把激励或膜电位 转化为有界信号    xyi j i j i i j jm m s x s y      i j i j i i j jm m s x s y   0ijm 0ijm  ijij()isix  iisx2020/11/29 16 确定性的竞争学习 ( Grossberg, 1969) 用是竞争信号调整 ‘ 信号 突触 ’ 的差分,即: 若 ,则输出神经元场 中的第 个神经元赢得竞争; 若 ,则输出神经元场 中的第 个神经元输掉竞争。    ij j j i i i jm s y s x m    11 jjj cysye ( 0)c  1jjsy  YFjjYF  0jjsy 2020/11/29 17 确定性的竞争学习 ( Grossberg, 1969) 竞争可以归结为 最近邻模式匹配的问题。 是一个度量指示器函数。            1 , m in ,0 , m in ,jkkjjjkkd S X m d S X mSyd S X m d S X m   jjSy2020/11/29 18 确定性的竞争学习 ( Grossberg, 1969) 实际中, 是线线性的,即, 输入模式矢量 就代表了神经元场 中的输出。 此时,竞争学习准则就成为 线性竞争学习准则:  i i iS x xXFXFX j i i jm S y X m  2020/11/29 19 确定性的微分 Hebbian学习 ( Kosko, 1988) 学习准则 信号速度: 虽然信号可能是非负的,但是速度则可正可负        i j i ji j i i j j i jm m S x S y S x S y       39。 ii iiiiid S x d S d x Sxd t d x d t2020/11/29 20 确定性的微分竞争学习 学习法则: 微分竞争,只有改变了才学习,速度 使局部奖惩强化。 线性微分竞争学习法则 :    i j j j i i i jm S y S x m  jS ij j j ijm S y X m  2020/11/29 21 三.概率空间和随机过程 随机过程是随机变量族的序列,更一般的讲,是随机矢量族的序列(即多维随机矢量)。 随机过程也是有序号的随机变量,不同序号的集合定义了不同的随机过程。 一个有限序号集定义了一个 随机矢量 ,如 一个有限可数的序号集定义了一个 随机。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。