某网爬虫-基于selenium与requests2种方案爬虫

1、免费题目爬取-selenium方式

1.1 实现流程

  • 设置Chrome驱动
  • 配置参数,解决下载文件的安全提示
  • 登录网页
  • 点击下载按钮

1.2 运行流程

输入验证码
输入验证码
下载文件
下载文件

解除Chrome安全文件下载提示
Chrome默认会对下载的文件做安全检测,但是在使用selenium自动下载时我们先禁止扫描,实现自动下载
在这里插入图片描述
禁用安全扫描代码

driver = webdriver.Chrome('chromedriver.exe',)       # 谷歌浏览器
# 取消chrome下载文件的安全提示
driver.command_executor._commands["send_command"] = ("POST", '/session/$sessionId/chromium/send_command')
params = {'cmd': 'Page.setDownloadBehavior',
          'params': {'behavior': 'allow', 'downloadPath': r'C:\Users\RION\Desktop\test'}} # downloadPath : 指定下载路径
driver.execute("send_command", params)

1.3 总代码

import time
from selenium import webdriver

def login(username,password):
    driver = webdriver.Chrome('chromedriver.exe',)       # 谷歌浏览器
    # 取消chrome下载文件的安全提示
    driver.command_executor._commands["send_command"] = ("POST", '/session/$sessionId/chromium/send_command')
    params = {'cmd': 'Page.setDownloadBehavior',
              'params': {'behavior': 'allow', 'downloadPath': r'C:\Users\RION\Desktop\test'}} # downloadPath : 指定下载路径
    driver.execute("send_command", params)

    # 打开网址,输入用户名和密码
    driver.get('http://tk.hustoj.com/loginpage.php')
    driver.find_element_by_name('user_id').send_keys(username)
    driver.find_element_by_name('password').send_keys(password)

    # 手动输入验证码
    vcode = input('请输入验证码: ')
    driver.find_element_by_name('vcode').send_keys(vcode)
    driver.find_element_by_name('submit').click()

    # 下载免费专区 - xml文件下载
    driver.get('http://tk.hustoj.com/problemset.php?search=free')
    time.sleep(2)
    file_xml = driver.find_elements_by_css_selector('#problemset > tbody > tr > td:nth-child(7) > div > span > a:nth-child(1)')

    for file in file_xml:
        try:
            file.click()
        except Exception as e:
            continue        # 异常跳过下载下一个文件

if __name__ == '__main__':
    username = '账户名称'         # 用户名
    password = '账户密码'         # 密码
    try:
        driver = login(username,password)
    except Exception as e:
        print(e)

2、某网题目爬取-requests方式保存Excel

2.1 实现流程

  • 打开网址
  • 解析网页
  • 获取内容
  • 保存Excel

保存标签下的所有文本

content = tree.xpath('//*[@class="content"]')
data.append({'id':i,'title_desc':content[0].xpath('string(.)').strip()})

2.2 运行结果

在这里插入图片描述

2.3 总代码

import requests
from lxml import etree
import pandas as pd

def get_content():
    url = "http://tk.hustoj.com/problem.php?id={}"
    data = []
    for i in range(1000,2000):
        new_url = url.format(i)
        print('ID={} 打开网址: {}'.format(i,new_url))
        response = requests.get(url=new_url).text
        tree = etree.HTML(response)
        content = tree.xpath('//*[@class="content"]')
        try:
            data.append({'id':i,'title_desc':content[0].xpath('string(.)').strip(),'input':content[1].xpath('string(.)').strip(),'ouput':content[2].xpath('string(.)').strip(),'exp_input':content[3].xpath('string(.)').strip(),'exp_output':content[4].xpath('string(.)').strip(),'source':content[6].xpath('string(.)').strip()})
        except Exception as e:
            continue
    return data

def save_excel(data):
    writer = pd.ExcelWriter('./tiku.xlsx')               # 创建Excel
    pf = pd.DataFrame(data)                              # 定义格式
    pf.to_excel(writer, index=False, encoding='utf-8')   # 写入Excel
    writer.save()

if __name__ == '__main__':
    data = get_content()
    save_excel(data)

文章若有写错的地方欢迎大佬指正。谢谢!

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值