以下说法中正确的是
相比于L1正则,L2正则会使更多的参数值为0
softmax(X+c)的结果与softmax(X)的结果一致(其中X是向量,c是常量)
Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
给定n个数据点,如果其中一半用于训练,一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而增加