Kaggle:纽约的士旅程数据简要分析
感谢关注天善智能,走好数据之路↑↑↑
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!
本文作者:天善智能社区专家colacola
天善智能社区地址:https://www.hellobi.com/
前言
本文数据来自于kaggle一个还在进行中的playground级别竞赛,公众号后台回复“的士”下载数据集。
选用train.csv中145万余条的数据记录进行相关数据分析的基础练习,使用工具为R。
参考该项目下Kernels中一些大神的思路方法,我会在这里分享代码和一些图表展示。
总述
先看看官方给出的这145万余条数据的字段信息描述:
id - a unique identifier for each trip
vendor_id - a code indicating the provider associated with the trip record
pickup_datetime - date and time when the meter was engaged
dropoff_datetime - date and time when the meter was disengaged
passenger_count - the number of passengers in the vehicle (driver entered value)
pickup_longitude - the longitude where the meter was engaged
pickup_latitude - the latitude where the meter was engaged
dropoff_longitude - the longitude where the meter was disengaged
dropoff_latitude - the latitude where the meter was disengaged
store_and_fwd_flag - This flag indicates whether the trip record was held in vehicle memory before sending to the vendor because the vehicle did not have a connection to the server - Y=store and forward; N=not a store and forward trip
trip_duration - duration of the trip in seconds
一共11个字段,其中包括上下车时间、上下车经纬度、旅程时长、乘客人数、数据记录发送类别(储存发送还是直接发送)、数据提供者的id编号
正文
#用到的包
library(dplyr)library(lubridate)library(data.table)library(geosphere)library(ggplot2)library(gridExtra)
第一部分:数据的基本概况和处理
#1.数据读取
train <-tbl_df(fread("train.csv"))
由于数据量较大,使用fread函数进行读取,并转化为tbl对象类型
#2.数据的基本情况
class(train)
glimpse(train)
summary(train)
可以看到:
(1)上下车时间为chr类型,需转化为时间类型
(2)vendor_id有可能不是1就是2,是不是可以把这个字段理解为出租车公司的编号(公司1、公司2)
(3)旅程时长最长的为3526282秒,我的天,将近41天??
(4)乘客数目的中位数为1,平均数为1.665,可以先推测一下,是不是单人打车的情况最多见?
#3.看看有没有缺失值####
sum(is.na(train))
这简直是个福音,没有缺失值的数据集是多么的可爱
#4.把上下车时间、出租车公司的ID、乘客数改一下字段类型
train <- train %>% mutate(pickup_datetime = ymd_hms(pickup_datetime), dropoff_datetime = ymd_hms(dropoff_datetime), vendor_id = factor(vendor_id), passenger_count = factor(passenger_count))
#5.trip_duration和上下车时间计算出来的数据是否一致
train %>% mutate(check = abs(int_length(interval(pickup_datetime,dropoff_datetime)) - trip_duration) == 0) %>% select(check,pickup_datetime,dropoff_datetime,trip_duration) %>% group_by(check) %>% count()
可以看到,时长和上下车时间计算出来的结果保持一致
#6.添加一些字段
#(1)从上车时间可以提取出星期几、月份、时段,添加这三个字段
train <- train %>% mutate(weekday = wday(pickup_datetime,label = TRUE), month = month(pickup_datetime,label = TRUE), hour = hour(pickup_datetime))
#(2)从上下车经纬度可以整合出两点之间的距离(km),除去路程时长,可以得出速度,添加这两个字段
pickuplocation <- train %>% select(pickup_longitude,pickup_latitude)dropofflocation <- train %>% select(dropoff_longitude,dropoff_latitude)
#距离,单位为km
train <- train %>% mutate(distance = distHaversine(pickuplocation,dropofflocation)/1000)
#速度,单位km/h
train <- train %>% mutate(speed = distance/trip_duration*3600)
注意,这里的距离使用的是distHaversine函数计算得出两点的最短距离,该距离建立在haversine模型上得出,这里就不深入讨论了,有兴趣的朋友可以自行google
第二部分 数据可视化展示(单字段)
经过第一部分对原始数据简单的了解及处理,进行相对应的数据可视化展示,先单独看看各个字段的数据情况:
(1)观测vendor_id的情况
p1 <- train %>% ggplot(aes(vendor_id,fill = vendor_id)) + geom_bar() + theme(legend.position = "null")
发现和之前的假设相同,只有两种情况,且vendor_id为2的情况比vendor_id为1的情况多了10W条左右
(2)#观测上车、下车时间的分布情况;组合对比一下
p2 <- train %>% ggplot(aes(pickup_datetime)) + geom_histogram(bins = 250,fill="orange")p3 <- train %>% ggplot(aes(dropoff_datetime)) + geom_histogram(bins = 250,fill="skyblue")p23 <- grid.arrange(p2,p3,nrow =2)
发现:
(1)所有的打的记录都在1-6月份
(2)大体上看去整个分布还是比较均匀的,但是在1月底2月初之间出现了一个很明显的回落趋势,来放大这个区间看看情况:
大概是23-25号之间,打车记录的数目出现了一个很明显的下降,打的作为一项平日里很稀松平常的事情,每日的订单量应该是相对平均的,这是为什么呢?
是那几天出租车涨价?还是类似于停电一小时的活动,呼吁不打的活动?还是天灾人祸?
google一下,答案是暴!风!雪!
(3)看看乘客数量的一个分布
p4 <- train%>% ggplot(aes(passenger_count,fill = passenger_count)) + geom_bar() +theme(legend.position = "null") + scale_y_sqrt()
发现:
(1)单人打车的情况最多,在145万多条的记录中,有100W+是单人打车的情况
(2)出现了乘客为0的打的记录
(3)原来美国出租车还可以坐四个以上的乘客,而且5、6名乘客情况还不少,中国的的士有可以坐4个以上乘客的吗?
(4)看看记录是否第一时间发送服务器的情况分布
p5 <- train %>% ggplot(aes(store_and_fwd_flag,fill = store_and_fwd_flag)) + geom_bar() +theme(legend.position = "null") + scale_y_log10()
可以看到not a store and forward trip的情况要占大多数
(5)看看旅行时长的分布
p6 <- train %>% ggplot(aes(trip_duration)) + geom_histogram(bins = 10000,fill="red") + coord_cartesian(x=c(1,6000))
看出,主要的时长还是集中在1000秒左右,即15分钟这样,当然还有一些时间非常短或则特别长的情况发生
(6)接下来按时间分布来观测下打车情况,哪个时段打车多?星期几出租车最忙?
#看看每天打的数量的分布\趋势
p7<- train %>% group_by(weekday) %>% count() %>% ggplot(aes(weekday,n,group=1)) + geom_line(size=1.5,color="lightblue") + geom_point(size=1.5,shape =17)
#看看每月打的数量的分布\趋势
p8<- train %>% group_by(month) %>% count() %>% ggplot(aes(month,n,group=1)) + geom_line(size=2,color="lightblue") + geom_point(size=2,shape =17)
#看看每个时段打的数量的分布\趋势
p9<- train %>% mutate(hour= hour(pickup_datetime)) %>% group_by(hour) %>% count() %>% ggplot(aes(hour,n)) + geom_line(size=2,color = "lightblue") + geom_point(size=2,shape=17)p789 <- grid.arrange(p7,p8,p9,ncol=1)
看来
(1)NYC的出租车最忙的时间集中在周五、周六
(2)3-5月份打的的人最多,和旅游旺季有一定关系吗?
(3)对于每天而言,还是符合我们的日常认识的,0-5点打车的人越来越少,到了晚上,嗯,call a taxi ,get high!
(7)看看路程距离\速度的分布,组合
p10 <- train %>% ggplot(aes(distance)) + geom_histogram(bins = 4000,fill="red") +coord_cartesian(x=c(0,30))p11 <- train %>% ggplot(aes(speed)) + geom_histogram(bins = 3000,fill="orange") +coord_cartesian(x=c(0,100))p1011 <- grid.arrange(p10,p11,ncol=1)
发现:
(1)主要的路程距离集中在1-3公里这个范围内
(2)行驶的速度集中在13-15km/h,我的天!这么堵?
第三部分 数据可视化展示(组合字段)
接下来,试着组合一些字段进行可视化的展示,看看还能得出什么信息
(1)看一下7个weekday不同时段的打车情况、6个月每个时段的打车情况,组合一下
p12 <-train %>% group_by(weekday,hour) %>% count() %>% ggplot(aes(hour,n,color=weekday)) + geom_line(size=2) + scale_color_brewer(palette = "Set1")p13 <- train %>% group_by(month,hour) %>% count() %>% ggplot(aes(hour,n,color=month)) + geom_line(size=2) + scale_color_brewer(palette = "Set2")p1213 <- grid.arrange(p12,p13,nrow=2)
看出:
(1)周六、周日凌晨,打车的情况会比其他工作日多不少,而周日深夜时段打车的数量是一周7天中最少的,收收心,第二天上班?
(2)正常工作日,早上打的的数量明显要比周末来的多,符合出行规律
(3)第二张图,除了看出3月份打车情况比其它月份来的多,除此并没有其它大的区别
(2)按乘客数目分组,看看旅行时长的分布
p14<- train %>% ggplot(aes(passenger_count,trip_duration,color=passenger_count)) + geom_boxplot() + scale_y_log10() + theme(legend.position = "null")
除去数据量很小的0、7、8、9几个类别外,
好像,并看不出什么...看来并不会因为乘客数量的多少而影响时长
(3)看看是否第一时间储存记录和vendor_id的关系
p14 <- train %>%ggplot(aes(vendor_id,fill=store_and_fwd_flag)) + geom_bar(position = "dodge")
可以看出,vendor_id为2的情况下,是没有store and forward trip的情况的
总述
这是在kaggle上学习后的第一篇实践输出,也参考了不少其它大神的代码和思路,主要是对R中dplyr、lubirdate、ggplot2包实战使用进行练习记录。
深深感觉到自己的缺陷与不足,不能进行更深入系统的数据分析。
希望认识更多学习数据分析的朋友,欢迎留言,感谢点赞。
最后,路漫漫其修远兮,平常心!