python机器学习爬虫

基于决策树的用户流失分析与预测

2019-04-18  本文已影响143人  坐下等雨

1、背景

用户获取和流失是一对相对概念,就好比一个水池,有进口,也有出口。我们不能只关心进口的进水速率,却忽略了出水口的出水速率。挽留一个老用户相比拉动一个新用户,在增加营业收入、产品周期维护方面都是有好处的。并且获得一个新用户的成本是留存一个老用户的5~6倍。

2、流程

定义流失周期——数据获取与处理——建立决策树模型——用户流失预警

3、确定用户流失周期

用户流失周期的确定采用回访率(回访用户数/流失用户数* 100%)作为判定指标。即在定义流失周期内没有访问行为后再度访问网站或APP的用户。借助用户回访率这一指标可以不断的修正用户流失周期长度的判定。用户流失周期越长,用户的访问率越低,存在一个时间拐点,在该周期后的用户访问率随周期的延长而下降缓慢,下降缓慢的这批用户即为平台长期活跃的用户,而该周期即为用户流失周期。

操作方法

df = pd.read_excel('data.xlsx')
df.head()

建立样本模型如上表,字段分别为用户id、性别、最后一次访问距今时间、近35日访问次数、近35日访问页面数、近35日访问时长、近35日访问天数、近35日搜索次数、近35日有效订单数、近35日付费订单数、近35日付费订单金额。

4、建立决策树模型

from sklearn import model_selection
from sklearn.model_selection import GridSearchCV
from sklearn import tree
predictors = df.columns[1:-1]
x_train, x_test, y_train, y_test = model_selection.train_test_split(df[predictors], df.is_churn, test_size=0.3, random_state=666)
max_depth = [2, 3, 4, 5, 6]
min_samples_split = [2, 4, 6, 8, 10]
min_samples_leaf = [2, 4, 6, 8, 10]
parameters = {'max_depth':max_depth, 'min_samples_split':min_samples_split, 'min_samples_leaf':min_samples_leaf}
grid = GridSearchCV(estimator=tree.DecisionTreeClassifier(), param_grid=parameters, cv=10)
grid.fit(x_train, y_train)
grid.best_params_

{'max_depth': 3, 'min_samples_leaf': 2, 'min_samples_split': 2}
经过10重交叉验证网格搜索,得到各参数最佳组合为3,2,2。接下来利用这些参数来构造决策树模型。

DTC = tree.DecisionTreeClassifier(max_depth=3, min_samples_split=2, min_samples_leaf=2).fit(x_train, y_train)
pred = DTC.predict(x_test)
from sklearn import metrics
y_score = DTC.predict_proba(x_test)[:,1]
fpr,tpr,threshold = metrics.roc_curve(y_test, y_score)
roc_auc = metrics.auc(fpr,tpr)
plt.stackplot(fpr, tpr, color='steelblue', alpha=0.5, edgecolor='black')
plt.plot(fpr, tpr, color='black', lw=1)
plt.plot([0,1], [0,1], color='red', linestyle='--')
plt.text(0.5, 0.3, 'ROC curve (area = %0.2f)' % roc_auc)
plt.xlabel('1-Specificity')
plt.ylabel('Sensitivity')

如图所示,ROC曲线下面积AUC为0.95,模型还是很理想的。

from sklearn.tree import export_graphviz
from IPython.display import Image
import pydotplus
from sklearn.externals.six import StringIO
dot_data = StringIO()
export_graphviz(DTC,
               out_file=dot_data,
               feature_names=predictors,
               class_names=['no','yes'],
               filled=True,
               rounded=True,
               special_characters=True)
graph = pydotplus.graph_from_dot_data(dot_data.getvalue())
Image(graph.create_png())

从图可以看出,决策树生成为一个深度为3的树,根节点所选的变量为visit_times,并以50.5作为分割点,其对应的左分支节点为visit_pv。其中最左侧的一条分支路径可以解释为:如果用户的近35天访问时长小于等于50.5,访问页面数小于等于20.5,并且付费金额小于70.5,那么此用户将会流失。

5、总结建议

总结:根据模型可知,在一个流失周期内,用户的访问时长小于等于50.5,访问页面数小于等于20.5,并且付费金额小于70.5,那么此用户有流失的风险,针对此类用户进行精细化运营,以达到留存老用户的目的。
针对流失用户特征,给出以下建议:

6、模型持久化

将训练好的模型结果保存下来,方便调用。后续只需定期将抽取清洗好的用户数据直接输入到模型中即可输出该用户是否流失的标识。

from sklearn.externals import joblib
joblib.dump(DTC,'DTC.pkl') # 保存模型

DTC = joblib.load('DTC.pkl') # 加载模型
上一篇下一篇

猜你喜欢

热点阅读