python爬取两个excel表里的相同数据并匹配输出

import xlrd
def extract(inpath):
    data = xlrd.open_workbook(inpath, encoding_override='utf-8')
    table = data.sheets()[0]  # 选定表
    nrows = table.nrows  # 获取行号
    ncols = table.ncols  # 获取列号
    all_info =[]
    teacher = getnew(inpathnew)
    print(teacher)


   # print(nrows)
    for i in range(0, nrows):  # 第0行为表头
        if i == 10:
            break
        else:
            alldata = table.row_values(i)  # 循环输出excel表中每一行,即所有数据
            result = alldata[
  • 11
    点赞
  • 98
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个示例代码,可以帮助您使用Python爬取5000条数据并将数据存入Excel文件中: ```python import requests from bs4 import BeautifulSoup import openpyxl url = 'https://www.example.com' # 需要爬取的网站链接 count = 5000 # 需要爬取数据条数 data_list = [] # 存储爬取数据 # 多次发送HTTP请求并获取网页内容 while len(data_list) < count: response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML内容,获取所需数据 soup = BeautifulSoup(html, 'html.parser') # ... # 将所需数据添加到列表中 # ... # 处理爬取到的数据 # ... # 将数据保存到Excel文件中 wb = openpyxl.Workbook() ws = wb.active ws.append(['字段1', '字段2', '字段3', ...]) # 添加表头 for data in data_list: ws.append(data) # 添加数据 wb.save('data.xlsx') # 保存Excel文件 ``` 在上面的代码中,我们使用了openpyxl库来创建和操作Excel文件。首先,我们定义了需要爬取的网站链接和需要爬取数据条数。然后,我们使用一个while循环来多次发送HTTP请求并获取网页内容,直到爬取到足够的数据条数为止。 在每次获取到网页内容后,我们使用BeautifulSoup库解析HTML内容,找到所需的数据,并将数据添加到一个列表中。当爬取到足够的数据条数后,我们可以对爬取到的数据进行处理,并将数据保存到Excel文件中。 在保存Excel文件时,我们首先创建了一个工作簿,并添加了一个工作表。然后,我们添加了表头和数据,并将Excel文件保存到本地。 请注意,此方法仅供学习和参考,爬取网站数据可能涉及法律问题,请务必遵守相关法律法规。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值