python数据处理——pandas的基本使用(一)

1.1 文本读取,pd.read_csv(),pd.read_table();

pandas 读取文本(txt、excel)中会常用到两个函数:**read_csv() 和 read_table() ;两个函数出去读取文本不一样之外,读取文本时前者是以,(逗号)**为分隔符读取,后者以 tab(空格)为 分隔符进行读取的,把读取到的文本转化成二维 Dataframe 数据格式,直观整洁以便后续处理,以 **pd.read_table()**为例:

**pd.read_table()**用到的参数有:

Snipaste_2020-02-10_16-20-30.jpg

里面参数很多,但常用到的下面几个

  • filepath,欲读取的txt、csv文件、网页内容;

  • seq ,分割符来对字符串进行表格划分,一般来说 read_table()默认的为 tab(空格)read_csv() 默认为,(逗号),可以根据具体情况自己设置;

  • usercols,可以设置提取自己需要的列名;

下面就是一个url网址内容,文本之间以 Tab键 作为分隔符:

Snipaste_2020-02-10_16-32-39.jpg

利用 pandas 对里面的内容进行读取,展示如下:
url ='http://bit.ly/chiporders'

df1 =pd.read_table(url)
# 读取前5行数据
df1.head()

Snipaste_2020-02-10_16-43-46.jpg

# usecols 参数作为选取特定的列;
df = pd.read_table(url,usecols = ['order_id','item_price'])
df.head()

Snipaste_2020-02-10_16-55-03.jpg

不设置第一行为列名
#header默认为0,即以第一列为列名,这里设为None,意味不设置第一行为列名;
df11 = pd.read_table(url,header =None)
df11.head()

Snipaste_2020-02-10_16-55-11.jpg

1.2 读取时用names修改列名
#names =***,可以自定义设置列名
user_cols = ['id','quantity','name','choice','price']
df= pd.read_table(url,header =None,names = user_cols)
df.head()

Snipaste_2020-02-10_20-53-36.jpg

1.3 用describe()函数对描述大致数据
#对整个Dataframe各列做个基本统计;
# count:数
# unique: 总体分为3类;
# top:频率最高的value;
# freq:出现频率最高的次数;
df.describe()

Snipaste_2020-02-10_21-05-28.jpg

1.4 shape函数返回二维数据的列数、行数
df.shape#查看Dataframe的整体数据

Snipaste_2020-02-10_21-05-56.jpg

1.5 读取到的 Dataframe 每一列数据类型为Series;
#列出某一列的数据,为一个series数据
df['name']#也可以df.name
print(type(df['name']))

Snipaste_2020-02-10_21-06-10.jpg

1.6 处理数据中时利用columns改变列名:
#在Dataframe数据中更改列名,在每个列名后面加一个‘_’;
df.columns = [str(i)+'_' for i in df.columns]
df

Snipaste_2020-02-10_21-06-24.jpg

1.7 利用drop函数删除特定的列;
#pd.DataFrame去除某一列,用到的函数drop,
#  第一个参数为单个标签或多个标签;
#  axis表示欲删除的为行或者列,0为行,1为列;
#  inplace =True,以及操作
df1 =df
df1.drop(['name_','choice_'],axis = 1,inplace = True)
df1.head()

Snipaste_2020-02-10_21-06-35.jpg

1.8 利用map函数对列中数据格式进行变换;
#对某一列数据进行修改;把price_中的$变成¥;利用lambda映射;
df['price_'] = df['price_'].map(lambda x:str(x).replace('$','¥'))
df

Snipaste_2020-02-10_21-06-48.jpg

1.9 to_csv将 Dataframe数据直接写到csv文件中;
#将 Dataframe写出csv文件,
# 第一个参数描述欲输出的文件名,若提供的为None,则返回的是string;
# index表示行索引,默认为True,
#   header = True表示的是不保存列名。
# encoding  = 'gbk',输入编码方式为gbk
df.to_csv('E:/ceshi/ab.csv',index =False,header =True,encoding = 'gbk')

Snipaste_2020-02-10_21-17-50.jpg

注:上面的代码运行都是在jupyter notebook编辑器上进行的!

### 回答1: Pandas是一个Python库,用于数据处理和分析。在数据分析中,预处理是非常重要的一步,因为它可以帮助我们清洗和转换数据,使其更适合进行分析。Pandas提供了一些强大的预处理功能,包括数据清洗、数据转换、数据重塑和数据合并等。在使用Pandas进行数据分析时,预处理是必不可少的一步。 ### 回答2: 在数据分析中,数据的预处理是一个必要的过程。它的主要目的是清洗数据,准备数据,以便后续分析。在Python中,pandas是一种广泛使用数据处理库。pandas可以通过其高效的数据结构和操作方法来清洗和处理数据。在本文中,将介绍pandas预处理的一些常见技术。 一、读取数据 在pandas中,使用read_csv()函数读取CSV格式的数据文件,read_excel()函数读取Excel格式的数据文件。它们都有很多选项,可以根据具体文件的格式进行设置。 二、查看数据 在pandas中,使用以下函数来查看数据: 1. head() - 显示数据框的前几行; 2. tail() - 显示数据框的后几行; 3. columns - 显示数据框的列名; 4. shape - 显示数据框的行列数; 5. info() - 显示数据框的基本信息,包括每列的名称、非空值数量和数据类型。 三、数据清洗 在数据清洗中,有以下一些常见的技术: 1. 删除重复行:使用drop_duplicates()函数; 2. 替换空值:使用fillna()函数; 3. 删除空值:使用dropna()函数; 4. 更改数据类型:使用astype()函数。 四、数据准备 在数据准备中,有以下一些常见的技术: 1. 数据合并:使用merge()函数; 2. 数据筛选:使用loc()函数或者iloc()函数; 3. 数据分组:使用groupby()函数; 4. 数据排序:使用sort_values()函数。 五、数据分析 在数据分析中,有以下一些常见的技术: 1. 数据聚合:使用agg()函数; 2. 统计描述:使用describe()函数; 3. 数据可视化:使用matplotlib或者seaborn库。 综上所述,pandas预处理是数据分析中必不可少的一步。通过使用pandas提供的函数和方法,可以方便地清理和处理数据,使其更容易被分析。 ### 回答3: PandasPython中最强大的数据处理库之一,它提供了DataFrame和Series这两种数据结构,可以快速便捷地处理数据。在数据分析过程中,我们往往需要先对数据进行预处理,以便后续的分析。Pandas提供了一系列的方法和函数,可以帮助我们进行数据的预处理。 首先,在进行数据分析之前,我们需要了解自己所面对的数据类型和数据结构。Pandas中的DataFrame结构就是类似于表格的结构,每一行代表一个样本,每一列代表一个属性。Series则是一维的数组结构。通过pandas.read_csv(),我们可以读取CSV格式的数据,并转化为DataFrame结构。 接下来,我们要对数据进行一些基本的处理,例如数据清洗、数据去重、缺失值处理、异常值处理等。在数据清洗过程中,我们往往需要对数据进行一些特殊的处理,例如字符串的分割、合并、替换等操作,Pandas提供了一系列能够对文本进行操作的函数。在数据去重方面,我们可以使用drop_duplicates()函数,它可以去除DataFrame中的重复记录。在处理缺失值时,Pandas提供了一系列的函数,如fillna()函数、dropna()函数,可以方便地将NaN值变为其他有意义的值,或者删除缺失值的行或列。在异常值处理方面,我们可以使用isoutlier()函数来找到数据中的异常值,并进行处理。 在数据预处理完成后,我们可以对数据进行一些统计分析,例如计算小计、计算总计、分位数、极差、方差、标准差等统计指标。我们可以使用describe()函数来获得数据的统计描述,还可以使用groupby()函数来对数据分组,使用agg()函数对每组进行计算统计指标。此外,我们还可以对数据进行排序、丢弃、合并等操作。 总之,Pandas是一个非常强大的Python库,可以轻松处理数据预处理和数据处理方面的任务。Pandas作为数据分析和数据处理的基础库,使用熟练后可以在数据分析中发挥更大的作用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小张Python1

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值