摘 要:同仁均知,训练F2N2(Feed Forward Neural Network:前馈神经网络)的方法虽然很多,但是至今未能彻底解决“收敛不迅速”和“收敛不稳健”这两大难题,从而影响了F2N2的应用。针对此问题,文章研究了一种训练&应用F2N2的新方法,该方法灵活地将BPNN(Back Propagation Neural Network:反向传播神经网络)关键训练算法和分层优化算法亲和、协调的自然结合,并且对每层的(Weight:“权”)训练独立进行,精心创建了用级数精确表达的F2N2目标函数,不仅能将优化每层的问题简化为线性问题
[登陆后可查看全文]