EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录
8 H0 z1 W5 @8 h6 e/ V+ g引言 ~, A! g8 d/ d* I
极限学习机原理
$ V/ T- S3 ?$ d( b0 O7 O5 ZMATLAB中重点函数解读
& A3 e! N3 M# l极限学习机的MATLAB实践 : w* X; i( a+ r6 n# s2 }
引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。 : W- b( J( O; ^
/ k: D3 F4 w' @5 \; {为什么我们需要ELM? 4 J4 ^0 \$ V0 v+ _. h9 D8 a
The learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
- t* I8 W0 U8 W1 G. ?1) the slow gradient-based learning algorithms are extensively used to train neural networks. # i! J+ ~6 X' g) f
2) all the parameters of the networks are tuned iteratively by using such learning algorithms. : @+ n9 D; ^5 S2 c, ~/ J
最大的创新点:
2 L/ j/ X- `3 U# n7 M1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
^1 }& V$ {: {2 C: v2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。 E, h; X/ n7 A4 ^
研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。 # g: V, ]) g4 R! o+ v d
一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。 # v: s4 ^2 b" `$ ~, d7 a, F6 q/ K
|