当前位置:首页 >热点 >如何正确拆分数据集?常见的三种方法总结 将数据集分解为训练集

如何正确拆分数据集?常见的三种方法总结 将数据集分解为训练集

2024-06-30 18:59:37 [百科] 来源:避面尹邢网

如何正确拆分数据集?常见的何正三种方法总结

作者:deephub 人工智能 机器学习 拥有适当的验证策略是成功创建良好预测,使用AI模型的确拆业务价值的第一步,本文中就整理出一些常见的分数方法数据拆分策略。

将数据集分解为训练集,据集可以帮助我们了解模型,总结这对于模型如何推广到新的何正看不见数据非常重要。 如果模型过度拟合可能无法很好地概括新的确拆看不见的数据。因此也无法做出良好的分数方法预测。

拥有适当的据集验证策略是成功创建良好预测,使用AI模型的总结业务价值的第一步,本文中就整理出一些常见的何正数据拆分策略。

如何正确拆分数据集?常见的三种方法总结 将数据集分解为训练集

简单的确拆训练、测试拆分

将数据集分为训练和验证2个部分,分数方法并以80%的据集训练和20%的验证。 可以使用Scikit的总结随机采样来执行此操作。

如何正确拆分数据集?常见的三种方法总结 将数据集分解为训练集

如何正确拆分数据集?常见的三种方法总结

如何正确拆分数据集?常见的三种方法总结 将数据集分解为训练集

首先需要固定随机种子,否则无法比较获得相同的数据拆分,在调试时无法获得结果的复现。 如果数据集很小,则不能保证验证拆分可以与训练拆分不相关。如果数据不平衡,也无法获得相同的拆分比例。

所以简单的拆分只能帮助我们开发和调试,真正的训练还不够完善,所以下面这些拆分方法可以帮助u我们结束这些问题。

K折交叉验证

将数据集拆分为k个分区。 在下面的图像中,数据集分为5个分区。

如何正确拆分数据集?常见的三种方法总结

选择一个分区作为验证数据集,而其他分区则是训练数据集。这样将在每组不同的分区上训练模型。

最后,将最终获得K个不同的模型,后面推理预测时使用集成的方法将这些模型一同使用。

K通常设置为[3,5,7,10,20]

如果要检查模型性能低偏差,则使用较高的K [20]。如果要构建用于变量选择的模型,则使用低k [3,5],模型将具有较低的方差。

优点:

  • 通过平均模型预测,可以提高从相同分布中提取的未见数据的模型性能。
  • 这是一种广泛使用的来获取良好的生产模型的方法。
  • 可以使用不同的集成技术可以为数据集中的每个数据创建预测,并且利用这些预测进行模型的改善,这被称为OOF(out- fold prediction)。

问题:

  • 如果有不平衡的数据集,请使用Stratified-kFold。
  • 如果在所有数据集上重新训练一个模型,那么就不能将其性能与使用k-Fold进行训练的任何模型进行比较。因为这个的模型是在k-1上训练的,不是对整个数据集。

Stratified-kFold

可以保留每折中不同类之间的比率。如果数据集不平衡,例如Class1有10个示例,并且Class2有100个示例。 Stratified-kFold创建的每个折中分类的比率都与原始数据集相同

这个想法类似于K折的交叉验证,但是每个折叠的比率与原始数据集相同。

如何正确拆分数据集?常见的三种方法总结

每种分折中都可以保留类之间的初始比率。如果您的数据集很大,K折的交叉验证也可能会保留比例,但是这个是随机的,而Stratified-kFold是确定的,并且可以用于小数据集。

Bootstrap和Subsampling

Bootstrap和Subsampling类似于K-Fold交叉验证,但它们没有固定的折。它从数据集中随机选取一些数据,并使用其他数据作为验证并重复n次

Bootstrap=交替抽样,这个我们在以前的文章中有详细的介绍。

什么时候使用他呢?bootstrap和Subsamlping只能在评估度量误差的标准误差较大的情况下使用。这可能是由于数据集中的异常值造成的。

总结

通常在机器学习中,使用k折交叉验证作为开始,如果数据集不平衡则使用Stratified-kFold,如果异常值较多可以使用Bootstrap或者其他方法进行数据分折改进。

责任编辑:华轩 来源: 今日头条 机器学习数据集验证策略

(责任编辑:综合)

    推荐文章
    热点阅读