投稿/爆料
厂商入驻

机器学习开放课程:一、使用Pandas探索数据分析

论智|2018-03-12 16:34

【编者按】Mail.Ru数据科学家Yury Kashnitsky和Segmento数据科学家Katya Demidova合作开设了机器学习开放课程。第一课介绍了如何使用Pandas进行数据分析。

熊猫

这一篇文章意味着,我们OpenDataScience的开放机器学习课程开始了。这一课程的目标并不是开发另一个全面的机器学习或数据分析的引导课程(所以这并不能代替基础性的教育,在线和线下课程,培训,以及书籍)。本系列文章的目的是帮你快速温习知识,同时帮你找到进一步学习的主题。我们的角度和Deep Learning book的作者们类似,从回顾数学和机器学习基础开始——简短扼要,包含很多指向其他资源的链接。

这一课程的设计考虑到了理论和实践的平衡;因此,每个主题附带了作业。你可以参加Kaggle上相应的竞赛。

XGBoost

我们在OpenDataScience的Slack小组中讨论这一课程。请填写这个表单申请加入。

概览

  1. 关于本课程
  2. 作业说明
  3. 主要Pandas方法
  4. 预测电信运营商的客户离网率
  5. 作业一
  6. 相关资源

1. 关于本课程

大纲

  1. 使用Pandas探索数据分析
  2. 使用Python可视化数据
  3. 分类、决策树、K近邻
  4. 线性分类、线性回归
  5. Bagging、随机森林
  6. 特征工程、特征选取
  7. 无监督学习:主成分分析、聚类
  8. Vowpal Wabbit:学习GB级数据
  9. 使用Python进行时序分析
  10. 梯度提升

社区

我们的课程的最突出的优势之一就是活跃的社区。如果你加入OpenDataScience的Slack小组,你会发现文章和作业的作者们在#eng_mlcourse_open频道热心答疑。对初学者而言,这非常有用。请填写这个表单申请加入。表单会询问一些关于你的背景和技能的问题,包括几道简单的数学题。

数学题

我们的聊天比较随意,喜欢开玩笑,经常使用表情。不是所有的MOOC敢夸口说自己有这样一个活跃的社区。另外,Reddit上也有这一课程的subreddit

预备知识

预备知识:

  1. 微积分的基本概念
  2. 线性代数
  3. 概率论和统计
  4. Python编程技能

如果你需要补习一下,可以参考“Deep Learning”一书的第一部分,以及众多数学和Python的线上课程(例如,CodeAcademy的Python课程)。以后我们的wiki页面将补充更多信息。

软件

目前而言,你只需要Anaconda(基于Python 3.6),就可以重现当前课程中的代码。在之后的课程中,你需要安装其他库,例如Xgboost和Vowpal Wabbit。

你也可以使用这个Docker容器,其中已经预装了所有需要用到的软件。更多信息请看相应的wiki页面

2. 作业

  • 每篇文章以Jupyter notebook的形式给出作业。作业包括补全代码片段,以及通过Google表单回答一些问题。
  • 每个作业必须在一周之内完成。
  • 请在OpenDataScience的Slack小组#eng_mlcourse_open频道或直接评论留言讨论课程内容。
  • 作业的答案会发给提交了相应的Google表单的用户。

Pandas的主要方法

好吧……其实已经有很多关于Pandas和可视化数据分析的教程了。如果你很熟悉这些主题,请等待本系列的第3篇文章,正式开始机器学习的内容。

下面的材料以Jupyter notebook的形式查看效果最佳。如果你克隆了本教程的代码仓库,你也可以在本地运行。

Pandas是一个Python库,提供了大量数据分析的方法。数据科学家经常和表格形式的数据(比如.csv.tsv.xlsx)打交道。Pandas可以使用类似SQL的方式非常方便地加载、处理、分析这些表格形式的数据。搭配MatplotlibSeaborn效果更好。

Pandas的主要数据结构是SeriesDataFrame类。前者是一个包含某种固定类型数据的一维数组,后者是一个二维数据结构——一张表格——其中每列包含相同类型的数据。你可以把它看成Series实例构成的字典。DataFrame很适合表示真实数据:行代表实例(对象、观测,等等),列代表每个实例的相应特征。

我们将通过分析电信运营商的客户离网率数据集来展示Pandas的主要方法。我们首先通过read_csv读取数据,然后使用head方法查看前5行数据:

import pandas as pd
import numpy as np
df = pd.read_csv('../../data/telecom_churn.csv')
df.head()

离网率的前5行数据

每行对应一位客户,我们的研究对象,列则是对象的特征

让我们查看一下数据的维度、特征名称和特征类型。

print(df.shape)

结果:

(3333, 20)

所以我们的表格包含3333行和20列。下面我们尝试打印列名:

print(df.columns)

结果:

Index(['State', 'Account length', 'Area code', 'International plan',
       'Voice mail plan', 'Number vmail messages', 'Total day minutes',
       'Total day calls', 'Total day charge', 'Total eve minutes',
       'Total eve calls', 'Total eve charge', 'Total night minutes',
       'Total night calls', 'Total night charge', 'Total intl minutes',
       'Total intl calls', 'Total intl charge', 'Customer service calls',
       'Churn'],
      dtype='object')

我们可以使用info()方法输出dataframe的一些总体信息:

print(df.info())
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 3333 entries, 0 to 3332
Data columns (total 20 columns):
State                     3333 non-null object
Account length            3333 non-null int64
Area code                 3333 non-null int64
International plan        3333 non-null object
Voice mail plan           3333 non-null object
Number vmail messages     3333 non-null int64
Total day minutes         3333 non-null float64
Total day calls           3333 non-null int64
Total day charge          3333 non-null float64
Total eve minutes         3333 non-null float64
Total eve calls           3333 non-null int64
Total eve charge          3333 non-null float64
Total night minutes       3333 non-null float64
Total night calls         3333 non-null int64
Total night charge        3333 non-null float64
Total intl minutes        3333 non-null float64
Total intl calls          3333 non-null int64
Total intl charge         3333 non-null float64
Customer service calls    3333 non-null int64
Churn                     3333 non-null bool
dtypes: bool(1), float64(8), int64(8), object(3)
memory usage: 498.1+ KB
None

boolint64float64object是我们特征的数据类型。这一方法同时也会显示是否有缺失的值。在上面的例子中答案是没有缺失,因为每列都包含3333个观测,和我们之前使用shape方法得到的数字是一致的。

我们可以通过astype方法更改列的类型。让我们将这一方法应用到Churn特征以将其修改为int64

df['Churn'] = df['Churn'].astype('int64')

describe方法可以显示数值特征(int64float64)的基本统计学特性:未缺失值的数值、均值、标准差、范围、四分位数。

df.describe()

统计学特性

查看非数值特征的统计数据时,需要通过include参数显式指定包含的数据类型:

df.describe(include=['object', 'bool'])

非数值特征的统计数据

类别(类型为object)和布尔值(类型为bool)特征可以应用value_counts方法。让我们看下Churn的分布:

df['Churn'].value_counts()

结果:

0    2850
1     483
Name: Churn, dtype: int64

3333位客户中,2850位是忠实客户;他们的Churn值为0。调用value_counts函数时,带上normalize=True参数可以显示比例:

df['Churn'].value_counts(normalize=True)

结果:

0    0.855086
1    0.144914
Name: Churn, dtype: float64

排序

DataFrame可以根据某个变量的值(也就是列)排序。比如,根据每日消费额排序(ascending=False倒序):

df.sort_values(by='Total day charge', ascending=False).head()

据每日消费额排序

此外,还可以根据多个列的数值排序:

df.sort_values(by=['Churn', 'Total day charge'], ascending=[True, False]).head()

多列排序

索引和获取数据

DataFrame可以以不同的方式索引。

使用DataFrame['Name']可以得到一个单独的列。比如:离网率有多高?

df['Churn'].mean()

结果:

0.14491449144914492

对一家公司而言,14.5%的离网率是一个很糟糕的数据;这么高的离网率可能导致公司破产。

布尔值索引同样很方便。语法是df[P(df['Name'])]P是检查Name列每个元素的逻辑条件。这一索引的结果是DataFrame的Name列中满足P条件的行。

让我们使用布尔值索引来回答这样一个问题:

离网用户的数值变量的均值是多少?

df[df['Churn'] == 1].mean()

结果:

Account length            102.664596
Area code                 437.817805
Number vmail messages       5.115942
Total day minutes         206.914079
Total day calls           101.335404
Total day charge           35.175921
Total eve minutes         212.410145
Total eve calls           100.561077
Total eve charge           18.054969
Total night minutes       205.231677
Total night calls         100.399586
Total night charge          9.235528
Total intl minutes         10.700000
Total intl calls            4.163561
Total intl charge           2.889545
Customer service calls      2.229814
Churn                       1.000000
dtype: float64

离网用户在白天打电话的总时长的均值是多少?

df[df['Churn'] == 1]['Total day minutes'].mean()

结果:

206.91407867494814

未使用国际套餐的忠实用户(Churn == 0)所打的最长的国际长途是多久?

df[(df['Churn'] == 0) & (df['International plan'] == 'No')]['Total intl minutes'].max()

结果:

18.899999999999999

DataFrame可以通过列名、行名、行号进行索引。loc方法为通过名称索引iloc方法为通过数字索引

loc的例子:给我们0至5行()、State(州)至Area code(区号)()的数据;iloc的例子:给我们前5行、前3列的数据(和典型的Python切片一样,不含最大值)。

df.loc[0:5, 'State':'Area code']

0至5行,州至区号

df.iloc[0:5, 0:3]

前5行、前3列

df[:1]df[-1:]可以得到DataFrame的首行和末行。(译者注:个人更喜欢用df.head(1)df.tail(1)。)

应用函数到单元格、列、行

使用apply()方法应用函数至每一列:

df.apply(np.max)

结果:

State                        WY
Account length              243
Area code                   510
International plan          Yes
Voice mail plan             Yes
Number vmail messages        51
Total day minutes         350.8
Total day calls             165
Total day charge          59.64
Total eve minutes         363.7
Total eve calls             170
Total eve charge          30.91
Total night minutes         395
Total night calls           175
Total night charge        17.77
Total intl minutes           20
Total intl calls             20
Total intl charge           5.4
Customer service calls        9
Churn                         1
dtype: object

apply方法也可以应用函数至每一行,指定axis=1即可。lambda函数在这一场景下十分方便。比如,选中所有以W开头的州:

df[df['State'].apply(lambda state: state[0] == 'W')].head()

以W开头的州

map方法可以替换某一列中的值

d = {'No' : False, 'Yes' : True} 
df['International plan'] = df['International plan'].map(d) 
df.head()

map方法

其实也可以直接使用replace方法:

df = df.replace({'Voice mail plan': d}) 
df.head()

replace方法

Pandas下分组数据的一般形式为:

df.groupby(by=grouping_columns)[columns_to_show].function()
  1. groupby方法根据grouping_columns的值进行分组。
  2. 接着,选中感兴趣的列(columns_to_show)。如果不包括这一项,那么会包括所有非groupby列。
  3. 最后,应用一个或多个函数。

在下面的例子中,我们根据Churn变量的值分组数据,显示每组的统计数据:

columns_to_show = ['Total day minutes', 'Total eve minutes', 
                   'Total night minutes']
df.groupby(['Churn'])[columns_to_show].describe(percentiles=[])

据Churn分组

和上面的例子类似,只不过这次将一些函数传给agg()

columns_to_show = ['Total day minutes', 'Total eve minutes', 
                   'Total night minutes']
df.groupby(['Churn'])[columns_to_show].agg([np.mean, np.std, 
np.min, np.max])

传递一组函数至agg方法

汇总表

假设我们想知道样本的Churn(离网)和International plan(国际套餐)的分布,我们可以使用crosstab方法构建一个列联表(contingency table)

pd.crosstab(df['Churn'], df['International plan'])

离网和国际套餐的列联表

Churn(离网)和Voice mail plan(语音邮件套餐)的分布:

pd.crosstab(df['Churn'], df['Voice mail plan'], normalize=True)

离网和语音邮件的列联表

我们可以看到,大部分用户是忠实的,同时并不使用额外的服务(国际套餐、语音邮件)。

对熟悉Excel的而言,这很像Excel中的透视表(pivot table)。当然,Pandas实现了透视表:pivot_table方法接受以下参数:

  • values 需要计算统计数据的变量列表
  • index 分组数据的变量列表
  • aggfunc 需要计算哪些统计数据,例如,总和、均值、最大值、最小值,等等。

让我们看下不同区号下白天、夜晚、深夜的电话量的均值:

df.pivot_table(['Total day calls', 'Total eve calls', 'Total night calls'], ['Area code'], aggfunc='mean')

不同时间段的电话量

转换DataFrame

和其他很多Pandas任务一样,在DataFrame中新增列有很多方法。

比如,为所有用户计算总的电话量:

total_calls = df['Total day calls'] + df['Total eve calls'] + \ 
              df['Total night calls'] + df['Total intl calls'] 
df.insert(loc=len(df.columns), column='Total calls', value=total_calls) 
df.head()

总电话量

上面的代码创建了一个中间Series实例,其实可以直接添加:

df['Total charge'] = df['Total day charge'] + df['Total eve charge'] + \ 
                     df['Total night charge'] + df['Total intl charge']
df.head()

总话费

使用drop方法删除列和行,将相应的索引和axis参数(1表示删除列,0表示删除行,默认值为0)传给drop方法。inplace参数表示是否修改原始DataFrame(False表示不修改现有DataFrame,返回一个新DataFrame,True表示修改当前DataFrame)。

# 移除先前创建的列
df.drop(['Total charge', 'Total calls'], axis=1, inplace=True)
# 如何删除行
df.drop([1, 2]).head()

删除行列

4. 预测离网率的首次尝试

让我们看下International plan(国际套餐)变量和离网率的相关性。我们将通过crosstab列联表来查看这一关系,我们也将使用Seaborn进行可视化分析(不过,可视化分析的更多内容将在本系列的下一篇文章介绍):

pd.crosstab(df['Churn'], df['International plan'], margins=True)

离网、国际套餐列联表

# 加载模块,配置绘图
%matplotlib inline
import matplotlib.pyplot as plt
# pip install seaborn
import seaborn as sns
plt.rcParams['figure.figsize'] = (8, 6)
sns.countplot(x='International plan', hue='Churn', data=df);

离网、国际套餐图形

我们看到,开通了国际套餐的用户的离网率要高很多,这是一个很有趣的观测结果。也许,国际电话高昂、难以控制的话费很容易引起争端,让电信运营商的客户很不满意。

接下来,让我们查看下另一个重要特征——客服呼叫。我们同样编制一张汇总表,并绘制一幅图像。

pd.crosstab(df['Churn'], df['Customer service calls'], margins=True)

离网、客服呼叫汇总表

sns.countplot(x='Customer service calls', hue='Churn', data=df);

离网、客服呼叫图形

也许汇总表不是很明显,但图形很明显地显示了,从4次客户呼叫开始,离网率显著提升了。

让我们给DataFrame添加一个二元属性——客户呼叫超过3次。同样让我们看下它与离网率的相关性:

df['Many_service_calls'] = (df['Customer service calls'] > 3).astype('int')
pd.crosstab(df['Many_service_calls'], df['Churn'], margins=True)

离网、多次客服呼叫表格

sns.countplot(x='Many_service_calls', hue='Churn', data=df);

离网、多次客服呼叫图形

让我们创建另一张列联表,将Churn(离网)与International plan(国际套餐)及新创建的Many_service_calls(多次客服呼叫)关联起来:

pd.crosstab(df['Many_service_calls'] & df['International plan'] , df['Churn'])

国际套餐、多次客服呼叫与离网

因此,预测客户呼叫客服超过3次,且已开通国际套餐的情况下会离网(Churn=1),我们可以期望的精确度为85.8%的精确度(我们只有464+9次弄错了)。我们基于非常简单的推理得到的数字85.8%,可以作为一个良好的开端(我们即将创建的更多机器学习模型的基线)。

复习一下我们介绍的内容:

  • 样本中忠实客户的份额为85.5%。这意味着最幼稚总是预测“忠实客户”的模型有85.5%的概率猜对。也就是说,后续模型的正确答案的比例(精确度)不应该比这个数字少,并且很有希望显著高于这个数字;

  • 基于一个简单的预测“(客服呼叫次数 > 3) & (国际套餐 = True) => Churn = 1, else Churn = 0”,我们可以期望85.8%的精确度,刚刚超过85.5%。以后我们将讨论决策树,看看如何仅仅基于输入数据自动找出这样的规则;

  • 我们没有应用机器学习就得到这两条基线,它们将作为后续模型的开端。如果经过大量的努力,我们将正确答案的份额提高了0.5%,那么也许我们搞错了什么,限制使用一个包含两个条件的简单模型已经足够了;

  • 在训练复杂模型之间,建议摆弄下数据,绘制一些图表,检查一下简单的假设。此外,在业务上应用机器学习时,通常从简单的方案开始,接着尝试更复杂的方案。

5. 作业一

第一次作业将分析包含美国居民的人口信息的UCI成人数据。我们建议你在Jupyter notebook中完成这些任务,然后通过Google表单回答10个问题。提交表单之后,同样可以编辑你的回答。

截止日期:February 11, 23:59 CE

6. 相关资源

原文 Open Machine Learning Course. Topic 1. Exploratory Data Analysis with Pandas
感谢原作者Yury KashnitskyKatya Demidova授权论智编译,未经授权禁止转载。详情见转载须知

本文来自机器人之家,如若转载,请注明出处:https://www.jqr.com/article/000079
爆料投稿,欢迎投递至邮箱:service@jqr.com
机器学习 pandasmlcourse_open
推荐阅读

最新评论(0

暂无回帖,快来抢沙发吧

评论

游客
robot
发布需求
联系客服联系客服
robot
联系客服