Python中运用Pandas爬取维基百科SP500数据并保存

本文介绍了如何利用Python的Pandas库从维基百科抓取S&P500公司的数据,并进行处理。首先导入必要的库,然后读取网页数据,选择相关字段,包括公司名称、CIK、行业分类等。接着,创建DataFrame并打印前几行数据以验证,最后将数据保存为Excel文件,便于进一步分析。
摘要由CSDN通过智能技术生成


Pandas是什么?

pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。Pandas提供了大量快速便捷地处理数据的函数和方法。它是使Python成为强大而高效的数据分析环境的重要因素之一。

步骤

1.引入库

代码如下:

import numpy as np
import pandas as pd

2.读入数据

代码如下:

payload=pd.read_html('https://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
first_table = payload[0]
second_table = payload[1]

df = first_table
df.head()

3.选取字段

代码如下:

Names = df['Security'].values.tolist()
CIK = df['CIK'].values.tolist()
General_industry = df['GICS Sector'].values.tolist()
Sub_industry = df['GICS Sub-Industry'].values.tolist()
Ticker = df['Symbol'].values.tolist()

4.DataFrame创建数据表

代码如下:

x=pd.DataFrame({'Name':Names,'CIK':CIK,'General_industry':General_industry, 'Sub_industry':Sub_industry, 'Ticker':Ticker})
print(x)

5.保存至Excel

代码如下:

x.to_excel("S&P500.xls",sheet_name="S&P 500 companies")

总结

结果如图在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值