博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
随机森林(Random Forest)
阅读量:4924 次
发布时间:2019-06-11

本文共 1054 字,大约阅读时间需要 3 分钟。

随机森林(Random Forest)

随机森林是一个最近比较火的算法,它有很多的优点:

  • 在数据集上表现良好
  • 在当前的很多数据集上,相对其他算法有着很大的优势
  • 它能够处理很高维度(feature很多)的数据,并且不用做特征选择
  • 在训练完后,它能够给出哪些feature比较重要
  • 在创建随机森林的时候,对generlization error使用的是无偏估计
  • 训练速度快
  • 在训练过程中,能够检测到feature间的互相影响
  • 容易做成并行化方法
  • 实现比较简单

随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输 入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本 为那一类。

在建立每一棵决策树的过程中,有两点需要注意 - 采样与完全分裂。首先是两个随机采样的过程,random forest对输入的数据要进行行、列的采样。对于行采样,采用有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。假设输入样本为N个,那 么采样的样本也为N个。这样使得在训练的时候,每一棵树的输入样本都不是全部的样本,使得相对不容易出现over-fitting。然后进行列采样,从M 个feature中,选择m个(m << M)。之后就是对采样之后的数据使用完全分裂的方式建立出决策树,这样决策树的某一个叶子节点要么是无法继续分裂的,要么里面的所有样本的都是指向的同一 个分类。一般很多的决策树算法都一个重要的步骤 - 剪枝,但是这里不这样干,由于之前的两个随机采样的过程保证了随机性,所以就算不剪枝,也不会出现over-fitting。

按这种算法得到的随机森林中的每一棵都是很弱的,但是大家组合起来就很厉害了。我觉得可以这样比喻随机森林算法:每一棵决策树就是一个精通于某一个窄领域 的专家(因为我们从M个feature中选择m让每一棵决策树进行学习),这样在随机森林中就有了很多个精通不同领域的专家,对一个新的问题(新的输入数 据),可以用不同的角度去看待它,最终由各个专家,投票得到结果。

随机森林的过程请参考 。这个页面上写的比较清楚了,其中可能不明白的就是Information Gain,可以看看之前推荐过的Moore的页面

转载于:https://www.cnblogs.com/jamesf/p/4751549.html

你可能感兴趣的文章
BZOJ5312 冒险(线段树)
查看>>
BZOJ3083 遥远的国度(树链剖分+线段树)
查看>>
Codeforces Round#514 Div.2 翻车记
查看>>
BZOJ4481 JSOI2015非诚勿扰(概率期望+树状数组)
查看>>
Codeforces 666E Forensic Examination(广义后缀自动机+线段树合并)
查看>>
Find Minimum in Rotated Sorted Array
查看>>
criteria使用总结
查看>>
四则运算表达式求值 OpenJ_Bailian - 4132
查看>>
office 2007安装出现windows installer服务不能更新一个或多个受保护的windows文件
查看>>
Oracle主表列表上显示从表字段拼成的字符串
查看>>
[转] Android中C&C++源码库的初步研究
查看>>
美团的android多渠道包的3种方法
查看>>
转:集成平台 jira 的使用与方案
查看>>
2016.4.26_下载abap代码【ABAP】
查看>>
uoj#273. 【清华集训2016】你的生命已如风中残烛(组合数学)
查看>>
[LeetCode#56]Merge Intervals
查看>>
Time模块
查看>>
运算符的重载【掌握】
查看>>
.net2.0缓存技术
查看>>
5.2 i++
查看>>