Python爬虫批量爬取网页数据并保存到Excel中

1、环境准备

pip install requests
pip install re
pip install openpyxl

2、源代码

import requests
import re
import openpyxl

# 要爬取的网页
baseurl = 'https://zhuanlan.zhihu.com/p/357510629'

#  创建Excel表并写入数据
wb = openpyxl.Workbook()  # 创建Excel对象
ws = wb.active  # 获取当前正在操作的表对象
# 往表中写入标题行,以列表形式写入!
ws.append(['事件名称', '时间', '地点名称', '事件简介'])

# 请求头
headers = {
    'Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
    'Connection': 'keep-alive',
    'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64; rv:60.0) Gecko/20100101 Firefox/60.0',
    'Upgrade-Insecure-Requests': '1'
}

content = requests.get(baseurl,headers=headers).content.decode('utf-8')


# 事件名称
event_name = re.findall(r"<td>事件</td><td>(.+?)</td>",content)
print(event_name)

# 时间
start_time = re.findall(r"<td>时间</td><td>(.+?)</td>",content)
print(start_time)

# 地点名称
area_name = re.findall(r"<td>地点</td><td>(.+?)</td>",content)
print(area_name)

# 事件简介
introduction = re.findall(r"<td>简介</td><td>(.+?)</td>",content)
print(introduction)

for i in range(len(event_name)):  # 每页25条数据,写入工作表中
    ws.append([event_name[i], start_time[i], area_name[i], introduction[i]])

wb.save('数据.xlsx')  # 存入所有信息后,保存为filename.xlsx
  • 11
    点赞
  • 141
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值