摘要

K-fold交叉验证(CV)是估计机器学习模型真实性能的常用方法。CV的过程需要数据的随机划分,因此性能评估实际上是随机的,具有可变性,这对于自然语言处理任务是非常重要的。所以建议使用较少变化的J-K-fold CV,其中J个独立的K-fold交叉验证用于评估性能。实验结果表明,通过重复的J-K-fold交叉验证进行调优能减少方差。

全文