《利用python进行数据分析》之数据清洗

(一)、处理缺失值:
在进行数据分析和建模的过程中,大量的时间会花在数据准备上:加载、清理、转换以及重塑。因此,掌握了正确、高效的完成数据准备的方式会使得我们的工作效率更高。缺失数据在pandas中呈现的方式有些不完美,但对于大多数用户可以保证功能正常。对于数值数据,pandas使用浮点值NaN(Not a Number)表示缺失数据
我们输入下面代码:

data = pd.Series(['aaa', 'bbb', 'ccc', np.nan])

产生的结果如下:

0    aaa
1    bbb
2    ccc
3    NaN
dtype: object

我们也可以用 isnull() 方法来查看缺失值

print(data.isnull())

输出结果如下(True表示这个位置为缺失值):

0    False
1    False
2    False
3     True
dtype: bool

NA即not available,中文为:不可用。NA数据可以是不存在的数据或者是存在但是不可观察的数据(例如在数据收集过程中出现了问题)

NA的处理方法:
在这里插入图片描述

1.1过滤缺失值:我们可以通过 pandas.isnull 和布尔索引的手工过滤缺失值的方法,但dropna可能会更实用一些。

1.1.1在 Series 上使用 dropna 时,他会返回Series。

from numpy import nan as NA
data = pd.Series([1, NA, 3.5, NA, 7])
print(data.dropna())

输出结果为:

0    1.0
2    3.5
4    7.0
dtype: float64

我们可以看到。行索引为 1 和 3 的元素(缺失值)被删除掉。

1.1.2在处理DataFrame对象时:dropna默认会删除包含缺失值的行

data = pd.DataFrame([[1, 3.6, 3], [1, NA, NA],
                    [NA, NA, NA], [NA, 6., 3]])

建立的数据为:

     0    1    2
0  1.0  3.6  3.0
1  1.0  NaN  NaN
2  NaN  NaN  NaN
3  NaN  6.0  3.0

调用删除之后的删除为:

     0    1    2
0  1.0  3.6  3.0

我们可以看到缺失值的整行都被删除掉。

1.1.3、传入的参数为how = ‘all’ 的时候,pandas会删除所有值均为NA的行

print(data.dropna(how = 'all'))

删除后的结果为:

     0    1    2
0  1.0  3.6  3.0
1  1.0  NaN  NaN
3  NaN  6.0  3.0

并不是所有的NA的行被删除掉,而只是某一行所有元素均为NA的时候才会删除该行。若是想删除列的话,我们加上axis = 1即可。

补全缺失值:在特定的情况下,我们可能需要以多种方式补全缺失值,而不是直接过滤缺失值。大多数情况下我们使用 fillna() 方法来补全缺失值

print(data.fillna(0))   

fillna()的参数就是我们用来填补缺失值的数值。填补之后的结果如下:

     0    1    2
0  1.0  3.6  3.0
1  1.0  0.0  0.0
2  0.0  0.0  0.0
3  0.0  6.0  3.0

用于重建索引的插值方法也可以用于fillna():

data = pd.DataFrame(np.random.randn(6, 3))
data.iloc[2: ,1] = NA     #从第三行第二列开始(或者我们从索引值为(2,1)开始)
data.iloc[4: ,2] = NA     #从第五行第三列开始(或者我们从索引值为(4,2)开始)

建立完成的数据如下:

          0         1         2
0  0.929878  1.039583 -0.581990
1  0.254919 -2.111313 -0.874815
2 -0.081725       NaN  0.946258
3 -1.224365       NaN -1.164537
4 -0.800158       NaN       NaN
5 -0.252555       NaN       NaN

我们可以看到对应位置的数字变成了NAN。之后我们进行缺失值的填充

print(data.fillna(method = 'ffill'))

填充后的结果如下:

          0         1         2
0 -0.131935 -0.059509 -1.575951
1 -0.556512 -1.407413 -0.204176
2  0.257330 -1.407413 -0.514804
3 -0.394098 -1.407413  0.735544
4 -0.083222 -1.407413  0.735544
5  1.127529 -1.407413  0.735544

我们可以看出pandas按照初始的规矩(产生服从正态分布的随机数的规律)自动的对数据进行了填充。

该函数参数解释如下:
在这里插入图片描述
(二) 代替值:之前我们使用的fillna()方法是通过将缺失值进行填充来实现替换的特殊案例。这里我通过使用replace()方法来实现替换

data = pd.Series([1., -999, 5, -999, 3, 154])   #假设-999是缺失值的标识

我们创建出的data如下:

0      1.0
1   -999.0
2      5.0
3   -999.0
4      3.0
5    154.0
dtype: float64

如果我们像完成缺失值的替换,可以采用这个代码:

print(data.replace(-999, np.nan))

意思是用nan代替原数据集中的 -999,结果如下:

0      1.0
1      NaN
2      5.0
3      NaN
4      3.0
5    154.0
dtype: float64

如果想一次性代替多个值的话,我们也可以使用列表来进行被代替值的传入。

print(data.replace([154, -999], np.nan))

我们这里让 154 和 -999 均被替代掉。

0    1.0
1    NaN
2    5.0
3    NaN
4    3.0
5    NaN
dtype: float64

如果想将不同的值替换为不同的值,可以传入两个列表进去,或者传入字典。下面两句话产生的结果相同

print(data.replace([154, -999], [np.nan, 100]))
print(data.replace({154 : np.nan, -999 : 100}))

结果如下:对应的数值被对应的数值替换掉。

0      1.0
1    100.0
2      5.0
3    100.0
4      3.0
5      NaN
dtype: float64

在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 利用Python进行数据分析,首先需要准备数据集。数据集可以来源于多种途径,比如网页爬取、数据库查询、文件导入等等。在数据集准备好后,就可以通过Python中的数据分析进行数据的处理和分析。 Python中最常用的数据分析库是Pandas和Numpy。Pandas提供了丰富的数据结构和数据处理函数,可以对数据进行清洗、过滤、转换等操作。Numpy是Python中的数值计算库,提供了大量的数学和统计函数,可以方便地进行数据分析和计算。 首先,我们可以使用Pandas将数据集导入到Python中。Pandas提供了多种数据导入函数,比如read_csv、read_excel等,可以根据数据集的格式选择合适的函数进行导入。 导入数据后,我们可以使用Pandas对数据进行初步的处理和探索。比如查看数据的基本信息,包括数据的列名、数据类型、缺失值等。可以使用head()函数查看数据的前几行,使用describe()函数查看数据的统计特征。 接下来,我们可以使用Pandas和Numpy进行数据清洗和转换。比如,对于缺失值可以选择删除或填充;对于异常值可以选择删除或修复;可以进行数据类型的转换;可以进行数据的标准化或归一化等。 之后,我们可以使用Pandas和Numpy进行数据分析。比如,使用groupby()函数进行数据分组和聚合,使用plot()函数进行数据可视化,使用统计函数进行数据分析等。还可以使用其他的数据分析库,比如Matplotlib和Seaborn进行高级的数据可视化。 最后,我们可以使用Python中的其他库进行更深入的数据分析。比如,可以使用Scikit-learn进行机器学习模型的建立和训练;可以使用TensorFlow进行深度学习模型的开发和调优等。 总之,利用Python进行数据分析需要先导入数据集,然后使用Pandas和Numpy进行数据处理和转换,最后使用其他的数据分析进行更深入的数据分析Python提供了丰富的数据分析工具和库,可以满足各种需求。 ### 回答2: 利用Python进行数据分析有许多方法和技术,以下是一些常用的数据分析工具和技巧。 首先,Python有很多强大的数据分析库,如NumPy、Pandas和Matplotlib。NumPy提供了高效的数值计算工具,可以进行向量化操作和高性能的数组处理。Pandas是一个用于数据结构和数据分析的库,可以方便地进行数据清洗、处理和操作。Matplotlib则是一个用于画图和可视化的库,可以将数据可视化为柱状图、散点图等。 其次,Python提供了很多统计学方法和技术,如描述统计、假设检验和回归分析等。使用Python进行描述统计可以计算数据的中心趋势和离散程度,如均值、中位数和标准差;使用假设检验可以检验数据之间是否存在显著差异;使用回归分析可以探索变量之间的关系和预测结果。 另外,Python还提供了机器学习算法和工具,如线性回归、决策树和聚类等。机器学习是一种通过训练数据来建立模型并进行预测的方法,可以用来解决分类、回归和聚类等问题。Python中的一些机器学习库如Scikit-learn和TensorFlow,提供了丰富的机器学习算法和工具,方便进行数据挖掘和预测分析。 最后,Python还有一些数据分析的框架和平台,如Jupyter Notebook和Anaconda。Jupyter Notebook是一个交互式的数据分析环境,可以通过代码、文字和图像组合成一个文档,方便数据分析的展示和共享。Anaconda是一个Python科学计算的发行版,集成了许多常用的数据分析库和工具,方便安装和管理。 综上所述,利用Python进行数据分析可以通过强大的数据分析库、统计学方法和技术、机器学习算法和工具以及数据分析的框架和平台来实现。Python的简洁易学、丰富的库和工具生态系统,使其成为数据分析的首选语言之一。 ### 回答3: 利用Python进行数据分析有很多优点,首先Python是一种开源的编程语言,具有用户友好的语法和丰富的数据处理工具包,如NumPy、Pandas和Matplotlib等。这些工具使我们能够高效地处理和分析大量数据。 在进行数据分析时,首先需要加载数据集。Python提供了多种数据加载和处理方法,例如可以使用`pandas`库中的`read_csv()`函数加载CSV文件,或者使用`pandas`的`read_excel()`函数加载Excel文件。这样我们就可以在Python中轻松地获取数据集了。 一旦数据集被加载,我们就可以使用Python进行各种数据分析任务。例如,我们可以使用`pandas`库来清洗和处理数据,如删除重复数据、处理缺失值、拆分或组合列等。`pandas`还提供了各种统计函数,如求和、均值、中位数等,方便我们对数据进行描述性统计分析。 除了`pandas`外,Python还有其他强大的数据分析库,如`NumPy`和`SciPy`,它们提供了许多数学和科学计算函数,可以用于进行数据预处理、聚类分析、回归分析等。 在数据分析中,可视化也是非常重要的一部分。Python的`Matplotlib`和`Seaborn`库提供了丰富的数据可视化工具,我们可以使用这些库来创建直方图、散点图、条形图等各种图表,以便更好地理解和展示数据。 总之,利用Python进行数据分析可以帮助我们更高效地处理和分析大量数据,并且通过可视化工具可以更好地展示分析结果。无论是学术研究还是商业决策,Python都是一个非常强大的工具。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值