爬虫之爬取PythonTip的题目

作为寒假在家刷题的网站
PythonTip的功劳功不可没
现在我们来爬取PythonTip的题目,要爬取内容如下
在这里插入图片描述
首先分两个cell
第一个cell函数是获取上边的题号,挑战题目,解题人数,通过率和难度,并且只执行一次

第二个cell就是正常爬取内容,内容没啥多讲,看不懂参考我以前的文章

def mulu():
    url=f'http://www.pythontip.com/coding/code_oj?page=1'
    xpath_1='//*[@id="__next"]/section/div/div/div[2]/div/div/div/div/div/div/div/table/thead'
    driver.get(url)
    tablel_1=driver.find_element_by_xpath(xpath_1).get_attribute('innerHTML')

    soup_1=BS(tablel_1,'html.parser')
    table_1=soup_1.find_all('tr')
    for row in table_1:
        cols=[col.text for col in row.find_all('th')]
        cols.pop()
        csv_write.writerow(cols)
from bs4 import BeautifulSoup as BS
from selenium import webdriver
import csv
import time

driver=webdriver.Chrome()
out=open('d:/question.csv','w',newline='')
csv_write=csv.writer(out,dialect='excel')
mulu()
for page in range(1,7):
    url=f'http://www.pythontip.com/coding/code_oj?page={page}'
    xpath='//*[@id="__next"]/section/div/div/div[2]/div/div/div/div/div/div/div/table/tbody'
    time.sleep(3)
    driver.get(url)
    tablel=driver.find_element_by_xpath(xpath).get_attribute('innerHTML')

    soup=BS(tablel,'html.parser')
    table=soup.find_all('tr')
    for row in table:
        cols=[col.text for col in row.find_all('td')]
        cols.pop()
        csv_write.writerow(cols)

out.close()
driver.close()

爬取的结果图
在这里插入图片描述

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好!关于使用Python爬虫爬取JWT(JSON Web Token)的问题,我可以为您提供一些指导。 首先,JWT是一种用于身份验证和信息传递的开放标准。如果您想要爬取包含JWT的网页数据,您需要先进行身份验证并获取有效的JWT令牌。 以下是一个基本的流程来爬取JWT保护的网页数据: 1. 导入必要的库:您需要导入`requests`和`jwt`库,其中`requests`用于发送HTTP请求,`jwt`用于处理JWT令牌。 2. 进行身份验证并获取JWT令牌:根据您访问的网站的身份验证方式,您可能需要提供用户名和密码等凭据来获取JWT令牌。您可以使用`requests`库发送POST请求进行身份验证,并从响应中提取JWT令牌。 3. 使用JWT令牌进行爬取:一旦您成功获取JWT令牌,您可以将其作为请求头的一部分发送到受保护的网页。在`requests`库中,您可以使用`headers`参数来设置请求头,将JWT令牌放在其中。 下面是一个简单的示例代码片段,展示了如何使用Python爬虫爬取JWT保护的网页数据: ```python import requests import jwt # 进行身份验证并获取JWT令牌 def get_jwt_token(): # 构建身份验证请求 auth_data = { 'username': 'your_username', 'password': 'your_password' } response = requests.post('http://example.com/auth', json=auth_data) # 提取JWT令牌 jwt_token = response.json()['jwt_token'] return jwt_token # 使用JWT令牌进行爬取 def crawl_protected_page(): jwt_token = get_jwt_token() # 设置请求头包含JWT令牌 headers = { 'Authorization': 'Bearer ' + jwt_token } response = requests.get('http://example.com/protected_page', headers=headers) data = response.json() # 处理爬取到的数据 # ... ``` 请注意,上述示例代码仅为演示目的,并不适用于所有网站。实际情况可能会因网站的身份验证和JWT令牌使用方式而有所不同。确保根据您所访问的网站的要求进行适当的修改和调整。 希望这些信息能对您有所帮助!如果您有任何进一步的问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值