爬虫基础知识(三)

import requests  #引入相关操作库
from bs4 import BeautifulSoup
import pandas as pd


ranks = []   #创建空列表存储数据信息
names = []
name_englishs = []
fortunes = []
sources = []
areas = []

url = 'http://www.forbeschina.com/lists/1733'  #获取网址
res = requests.get(url)

soup = BeautifulSoup(res.text, 'html.parser')  #使用bs进行解析
items = soup.find('tbody').find_all('tr') #获取所有数据信息
for item in items:  #对信息遍历并实现存储
    content = item.find_all('td')
    rank = content[0].get_text()
    name = content[1].get_text()
    name_english = content[2].get_text()
    fortune = content[3].get_text()
    source = content[4].get_text()
    area = content[5].get_text()
    ranks.append(rank)
    names.append(name)
    name_englishs.append(name_english)
    fortunes.append(fortune)
    sources.append(source)
    areas.append(area)

df = pd.DataFrame({  #构造DataFrame存储数据信息
    '排名': ranks,
    '姓名': names,
    '姓名(英文)': name_englishs,
    '财富(亿美元)': fortunes,
    '财富来源': sources,
    '国家和地区': areas
})

df.to_csv('全球亿万富豪榜.csv', encoding='gb18030', index=False)  #保存至csv文件

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值