深度学习首页投稿(暂停使用,暂停投稿)程序员

倚天遇到屠龙:LightGBM VS xgboost谁才是最强的

2018-02-01  本文已影响122人  阿里云云栖号

作者介绍:Laurae ,数据科学爱好者

Blog:https://medium.com/@Laurae2

背景知识:

XGBoost是一款经过优化的分布式梯度提升(Gradient Boosting)库,具有高效,灵活和高可移植性的特点。基于梯度提升框架,XGBoost实现了并行方式的决策树提升(Tree Boosting),从而能够快速准确地解决各种数据科学问题。

LightGBM(Light Gradient Boosting Machine)同样是一款基于决策树算法的分布式梯度提升框架。

这篇博客是关于LightGBM 和xgboost 的对比。实验使用了定制的博世数据集,结果显示,在速度上xgboost 比LightGBM在慢了10倍,而我们还需要做一些其它方面的比较。

总体介绍

首先让我们来看一下这个图表,所有人都应该打起精神!!!

从图上我们可以看到,平均来说,LightGBM比xgboost 快11到15倍。

我们也注意到,随着线程数的增加,比率变小了。这也很容易解释,因为你不可能让线程的利用率是100%,线程的切入切出以及线程有时要等待,这都需要耗费很多时间。

1–12 个线程

我们来看一下前12个线程。

从表中,我们可以看到,当线程数超过6的时候xgboost的性能得到了很大的提升(当线程数是12的时候,消耗时长从577.9降低到414.3秒,大约提高了28.3%)。

对于LightGBM来说是否也是这样呢?时间从45.1降低到了33.6秒,性能提高大约25.5%。

小结:使用所有逻辑核心进行线程化,这能极大地提高性能。 如果你希望你的机器学习训练速度提高25%(显然,根据CPU的不同,情况也不完全一样),你现在知道该做什么:使用逻辑核心,而不是物理核心来创建线程。

13–24 个线程

那么13-24个线程又会怎么样呢?我们增加12个线程作为参照。

我们可以注意到:

对于xgboost来说并没有提升,数值的变化基本可以看成是误差

对于LightGBM来说反而耗时更长,从33.6秒提高到38秒以上

所以我们可以简单的下一个结论:不要过度分配逻辑内核,这不是一个好的做法。保持使用逻辑核心创建一定量的线程,并且不要超过该数。

LightGBM 一瞥

我们再来关注一下LightGBM的曲线。

从图上来看,这似乎是一个线性的改进:从202秒(使用1个核,1个线程),我们下降到33.6秒(6个全部使用的,12个线程),这是几乎100%的多线程的效率。 当我们用更多的线程时,多线程的效率急剧下降,使用的时间反而比一千场了。

数据存储器的效率

在创建矩阵后使用gc方法两次来快速查看RAM使用情况,具体情况如下:

初始数据(密集,未使用):约8,769 MB(27.9%vs原始版本)

原始数据(dgCMatrix):大约 2,448 MB(100%vs原始版本)

xgboost(xgb.DMatrix):大约 1,701 MB(69.5%vs原始版本)

LightGBM(lgb.Dataset):大约2,512 MB(102.6%vs原始版本)

看来LightGBM具有比xgboost更高的内存占用。

训练存储器的效率

我们使用12个线程来检查RAM效率,在50次boosting迭代结束时,在boosting之前使用gc,boosting之后不使用gc,效果如下:

xgboost:约 1684 MB

LightGBM: 1425 MB(xgboost内存使用量的84.6%)

我们可以注意到,LightGBM在训练期间的RAM使用率较低,但是内存中数据的RAM使用量增加。 所以R语言的LightGBM包有改进的潜能,以具有更有效的方式来存储数据。

下一个指标

当xgboost的快速直方图方法启动并在R语言中可用时,我们会使用新的指标。虽然它目前正在运行,但在R语言中不可用。这样一来xgboost和LightGBM孰优孰劣到时就会揭晓。

当然,未来我们也会比较xgboost和lightgbm之间的对数损失。

以上为译文

本文由阿里云云栖社区组织翻译。

文章原标题《Benchmarking LightGBM: how fast is LightGBM vs xgboost?》,作者:Laurae

上一篇下一篇

猜你喜欢

热点阅读