本文目录一览

1,gbdt为什么对样本是否均衡不敏感

一是天生的二是智商问题
我是来看评论的

gbdt为什么对样本是否均衡不敏感

2,gbdt 特征可以是分类变量吗

传统GBDT以CART作为基分类器,xgboost还支持线性分类器
应该不能吧。

gbdt 特征可以是分类变量吗

3,随机森林和gbdt算法的不同点

不了解什么是随机森林。感觉应该是一种算法。如果做计算机视觉建议你用OpenCV,R语言主要用在统计分析、机器学习领域。你找几篇这方面的文献看看别人跟你做类似课题时是用C++还是R。
搜一下:随机森林和gbdt算法的不同点

随机森林和gbdt算法的不同点

4,gbdt多分类预测结果代表什么意思

二分类,就是说把数据分成2类,要么A,要么B。。。。。算法结果上,会计算出一个打分,比如这个模型认为这个数据的最终分数是0.6,如果你把A类的阈值定在0.5,那么这个数据它就是A类。。。
传统gbdt以cart作为基分类器,xgboost还支持线性分类器

5,gbdt可以自动筛选特征 对吗

选择数据区域,使用数据菜单下排序命令,调出对话框,然后选择用于排序的依据,就是关键字,根据指定的列进行排序,再指定排序的方法:拼音、数字、笔划和日期,这要看你排序的列中数据是什么格式。还要注意“我的数据区域”选项中有无标题行的选择,用于决定第一行是否参加排序。如果需要多个排序条件,再指定第二关键字或第三关键字。EXCEL中一次最多可用三个关键字,如果不够用,再多次重复排序操作。
我觉得不对

6,xgboostgbdt在调参时为什么树的深度很少就能达到很高的精度

考虑这个简化的操作:试想把树的深度设为2,那么gbdt里面的基学习器都是二分类决策树,然后自己在二维坐标系上画很多点,然后不停的用boosting的方法用二分类决策树去进行分类,不同的是,我们简化权重的计算方式,初始化权重都为1,每次分错权重不变,分对则权重将为原来的一半,最终能用深度为2的树成功对很多不规则的点进行分类。然而用深度为2的树,用类似RF的bagging方法也能成功对不规则的点分类。所以到这里,我们实际操作了,用深度低的树通过ensemble对于不规则的点的分类这种“黑科技”。那么为什么gbdt在树的深度很小的时候能很快达到很高的预测或分类精度呢?或者说,它比RF明显。我的理解是,因为gbdt更多的是一种优化算法。具体怎么优化的,期待牛人用公式解答。

文章TAG:为什么  什么  样本  是否  gbdt  
下一篇