首页 > 科技 > 5种高效利用value-counts函数的方法,一键提升数据挖掘姿势水平

5种高效利用value-counts函数的方法,一键提升数据挖掘姿势水平

选自towardsdatascience作者:Parul Pandey
机器之心编译参与:王子嘉

数据挖掘是机器学习领域的一个重要组成部分。在确定训练哪种模型以及训练多少模型之前,我们必须对数据包含的内容有所了解。Pandas 库为此提供了许多有用的函数,value_counts 就是其中之一。此函数返回 pandas 数据框中各个项的数量。但在使用 value-counts 函数的大多数时候用到的是默认参数。因此,在这篇短文中,作者介绍了如何通过自定义参数来实现更多的功能。

value_counts()

value_counts() 方法返回一个序列 Series,该序列包含每个值的数量。也就是说,对于数据框中的任何列,value-counts () 方法会返回该列每个项的计数。
语法

Series.value_counts()


参数

图源:https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.Series.value_counts.html
基本用法

作者通过以下数据集来观察 value-count () 函数的基本用法,其中 Demo 中使用了 Titanic 数据集。她还在 Kaggle 上发布了一个配套的 notebook。
代码链接:https://www.kaggle.com/parulpandey/five-ways-to-use values -counts


导入数据集
首先导入必要的库和数据集,这是每个数据分析流程的基本步骤。

# Importing necessary librariesimport pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline# Reading in the data
train = pd.read_csv('../input/titanic/train.csv')


了解数据集的前几行内容

train.head()

统计无效值数量

train.isnull().sum()

由上图可见,Age、Cabin 和 Embarked 列都有无效值。通过这些分析,我们就对数据集有了初步的了解。现在就让我们来看一下 value_counts() 是如何对这个数据集进行进一步探索的,那 5 个高效方法又是什么呢?默认参数值下的 value_counts()

首先在数据集的 Embarked 列上使用 value_counts (),这样会对该列中出现的每个值进行计数。

train['Embarked'].value_counts()
-------------------------------------------------------------------
S 644
C 168
Q 77


这个函数会对给定列里面的每个值进行计数并进行降序排序,无效值也会被排除。我们很容易就能看出,Southampton 出发的人最多,其次是 Cherbourg 和 Queenstown。
如何用 value_counts() 求各个值的相对频率

有时候,百分比比单纯计数更能体现数量的相对关系。当 normalize = True 时,返回的对象将包含各个值的相对频率。默认情况下,normalize 参数被设为 False。

train['Embarked'].value_counts(normalize=True)
-------------------------------------------------------------------
S 0.724409
C 0.188976
Q 0.086614

因此,知道有 72% 的人从 Southampton 出发比单纯知道 644 个人从 Southampton 出发要直观得多。如何实现升序的 value_counts()

默认情况下,value_counts () 返回的序列是降序的。我们只需要把参数 ascending 设置为 True,就可以把顺序变成升序。

train['Embarked'].value_counts(ascending=True)
-------------------------------------------------------------------
Q 77
C 168
S 644

如何用 value_counts() 展示 NaN 值的计数默认情况下,无效值(NaN)是不会被包含在结果中的。但是跟之前一样的,只需要把 dropna 参数设置成 False,你也就可以对无效值进行计数。

train['Embarked'].value_counts(dropna=False)
-------------------------------------------------------------------
S 644
C 168
Q 77
NaN 2

我们可以很直观地观察到该列内有两个无效值。
如何用 value_counts() 将连续数据放进离散区间

这是 value_counts() 所有功能中作者最喜欢的,也是利用最充分的。改变参数 bin 的值,value_counts 就可以将连续数据放进离散区间。这个选项只有当数据是数字型时才会有用。它跟 pd.cut 函数很像,让我们来看一下它是如何在 Fare 这一列大显身手的吧!

# applying value_counts on a numerical column without the bin parametertrain['Fare'].value_counts()

这个结果并不能告诉我们什么信息,因为类别太多了。所以让我们把它集合到 7 个区间里。

train['Fare'].value_counts(bins=7)

区间化(Binning)之后的结果更容易理解。我们可以很容易地看到,大多数人支付的票款低于 73.19。此外,我们还可以发现,有五个区间是我们需要的,并且没有乘客的最后两个区间是没用的。因此,我们可以看到,value_counts() 函数是一个非常方便的工具,我们可以使用这一行代码进行一些有趣的分析。
原文链接:
https://towardsdatascience.com/getting-more-value-from-the-pandas-value-counts-aa17230907a6

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.souzhinan.com/kj/255289.html