「偏差-方差分解」(Bias-Variance Decomposition)是一种模型评估手段,是解释学习算法泛化能力的一种重要工具。试图对学习算法的期望泛化错误率进行拆解。对测试样本
使用样本数量不同训练集产生的方差
噪声为
期望输出与真实标记的差别称为偏差,即
其中,假定噪声期望为
通过简单的多项式展开合并,可对算法的期望泛化误差进行分解。
因此,泛化误差可分解为偏差、方差与噪声之和。
偏差-方差分解说明,泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的。
给定学习任务,为了取得更好的泛化性能,则需使偏差较小,即能够充分拟合数据,并使之方差较小,即使得数据扰动产生的影响小。
偏差-方差窘境(bias-variance dilemma):偏差和方差通常是与冲突的