k-fold cross validation(k折交叉验证)是机器学习中最为常用的训练方法之一,下列关于k折交叉检验以及其和bias-variance之间的关系说法错误的是()
当k较小的时候,模型过拟合的程度一般较低,此时bias较大
当k较小的时候,模型过拟合的程度一般较低,此时variance较小
当k较大的时候,可以学习到更加符合数据分布的模型,此时Bias较大
当k较大的时候,模型更容易过拟合,此时variance较大