EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录
) ^9 I- G* I7 S# `引言
, k! J0 j$ q7 z4 M8 G% b3 T" A( R1 ~极限学习机原理
& V/ s2 H( O9 [3 k |5 s: ~& h! s, VMATLAB中重点函数解读
/ m% [8 A9 w1 |6 w0 M" H极限学习机的MATLAB实践
$ Y0 z; i3 y+ T. o; q+ L, F引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。 1 H# |5 l# R3 U9 `: G4 G
8 H) k( ~! a4 z$ P6 [; v) R为什么我们需要ELM?
! x+ k1 Q/ j: y8 uThe learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
5 F% _3 ]7 R+ V5 {+ U1) the slow gradient-based learning algorithms are extensively used to train neural networks. 4 Q) o4 D$ q3 Q/ j
2) all the parameters of the networks are tuned iteratively by using such learning algorithms. 2 _, h; s) n+ h, V3 J+ b
最大的创新点: ) {, q( E" A _/ f
1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
0 S, f, m0 N* q; Y( H2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。 $ ]% i9 @& }) f" |6 n: O4 d- o; T% D
研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。 * l6 q" V) e$ f" ]) I3 x& M
一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。 * `: ` _( x" U' A
|