随机森林

抽象的

随机森林是树预测器的组合,使得每棵树取决于独立采样的随机载体的值,以及森林中所有树木的分布相同的分布。森林的泛化误差会聚A.S.随着森林中的树木数量大的限制。树木分类器森林的泛化误差取决于森林中各树的强度和它们之间的相关性。使用随机选择的特征来分割每个节点,产生对adaboost的有利比较的错误率(Y.Freund&R. Schapire,机器学习第十三国际会议的诉讼程序,***,148-156),但对噪音更加坚固。内部估计监视器错误,强度和相关性,并且这些用于显示对增加分裂中使用的特征数量的响应。内部估计也用于测量可变重要性。这些想法也适用于回归。

参考

  1. Amit,Y.&Geman,D。(1997)。随机树木形状量化和识别。神经计算9.,1545-1588。

    谷歌学术

  2. Amit,Y.,Blanchard,G.,&Wilder,K。(1999)。多种随机分类器:芝加哥大学统计系MRCL技术报告。

  3. Bauer,E.&Kohavi,R。(1999)。投票分类算法的实证比较。机器学习36.(1/2),105-139。

    谷歌学术

  4. Breiman,L.(1996A)。装袋预测器。机器学习26.(2),123-140。

    谷歌学术

  5. Breiman,L.(1996B)。外包估计,ftp.stat.berkeley.edu/pub/users/breiman/oobestimation.ps

  6. Breiman,L.(1998A)。电弧分类器(讨论纸)。统计数据26.,801-824。

    谷歌学术

  7. Breiman。L.(1998b)。随机化输出增加预测精度。技术报告518年5月1日,1998年5月1日,统计部门,UCB(印刷机,机器学习)。

  8. BREIMAN,L. 1999.使用自适应架步到Debias回归。技术报告547,统计部门UCB。

  9. BREIMAN,L. 2000.预测因素合奏的一些无限理论。技术报告579,统计部门UCB。

  10. Dietterich,T.(1998)。三种决策树集合的三种方法的实验比较:袋装,提升和随机化,机器学习,1-22。

  11. 弗氏,Y.&Schapire,R。(1996)。用新的升压算法进行实验,机器学习第十三国际会议的诉讼程序,148-156。

  12. Grove,A.&Schuurmans,D。(1998)。在极限中提升:最大化学习合奏的余量。在第五十届全国人工智能大会的诉讼程序(AAAI-98)

  13. HO,T. K.(1998)。构建决策林的随机子空间方法。IEEE Trans。论模式分析与机智20.(8),832-844。

    谷歌学术

  14. Kleinberg,E。(2000)。关于随机辨别的算法实现。IEEE Trans。论模式分析与机智22.(5),473-490。

    谷歌学术

  15. 沙普尔,R。,弗瑞恩,Y.,Bartlett,P.,&Lee,W。(1998)。提升边缘:用于投票方法的有效性的自动解释。统计数据26.(5),1651-1686。

    谷歌学术

  16. Tibshirani,R.(1996)。分类规则的偏差,方差和预测误差。多伦多大学统计部门技术报告。

  17. Wolpert,D. H.&Macready,W. G.(1997)。一种有效的方法来估算袋装的泛化误差(压机,机器学习)。

下载参考

作者信息

隶属关系

作者

权利和权限

重印和权限

关于这篇文章

引用这篇文章

Breiman,L.随机森林。机器学习45,5-32(2001)。https://doi.org/10.1023/a:1010933404324

下载引用

  • 分类
  • 回归
  • 合奏