摘要

针对现有多任务学习方法运行效率低和数据信息利用不足的问题,提出了一种新的多任务朴素贝叶斯学习方法。该方法基于朴素贝叶斯原理,将经典的单任务朴素贝叶斯模型引入到多任务学习问题中,通过两种新的更新策略,更好地利用总体数据的先验信息来提高模型的分类性能和泛化能力;该方法与目前的多任务学习模型相比,运行效率显著提升。实验结果表明,该方法优于只针对单任务的朴素贝叶斯学习方法,并在部分数据集上优于当前主流的多任务学习方法。