开啃《机器学习》(周志华)- 第5章 神经网络

时间:2017-12-07 19:40:06   收藏:0   阅读:228

基本概念:

          技术分享图片

          其中,y为当前神经元输出,f()为激活函数,n、x、w分别为前一级神经元个数、输出值(也是当前神经元的输入值)和权重值。

          神经网络的学习过程,就是根据训练数据来调整神经元之间的connection weight和threshold。

BP(error BackPropagation)算法:

          1)标准BP对训练集的单次样本学习会做一次参数调整,而累积BP则对整个训练集学习完后才进行参数调整

          2)标准BP由于对不同样例学习后进行更新可能出现抵销的效果,所以需要更多次数的迭代

          3)当训练集非常大时,标准BP会有更快更高效的收敛效果

Local minimum & Global minimum(全局最小与局部极小):

          1)以多组不同参数值初始化神经网络,训练后,取误差最小的接作为最终参数

          2)simulated annealing(模拟退火):每一步迭代以一定概率接受次优解

          3)随机梯度下降:计算梯度时加入随机因素,使局部极小时梯度非零,调整梯度下降方向

          4)genetic algorithms(遗传算法)

其他神经网络:

原文:http://www.cnblogs.com/wrightcw/p/7999999.html

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!