摘要

本文从获取好的神经网络泛化能力出发 ,首先提出了将Hebbian学习与增加问题复杂性统一起来的思想 ,并通过在总的误差函数中增加一限制函数来实现Hebbian学习 .基于此 ,提出了一种将误差驱动的任务学习与Hebbian规则的模型学习相结合的E H方法 .然后 ,根据模型学习应同时考虑减小网络复杂性和增加问题复杂性的思想 ,又提出了一种将误差驱动的学习与Hebbian规则、简单的权退化法结合起来 ,共同来提高神经网络的泛化能力的E H W方法 .最后通过大量实例仿真将它们与纯误差驱动的方法、权退化法、其它文献中的相关方法进行了比较 .结果表明我们的方法具有最好的泛化能力 ,是很有效的神经网络学习方法 .