Python3.7 + Selenium + BeautifulSoup4 + Requests + Threading 爬虫异步加载网站

一个用于爬取采用JS脚本防爬虫漫画网站的脚本
具体看注释

# coding=utf-8
import pdfkit
import requests

from urllib.request import urlretrieve
from bs4 import BeautifulSoup
import os,time,threading
from urllib.parse import urljoin
from selenium import webdriver
from selenium.webdriver.common.by import By # 标识
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait

#网页分析,获取网址和标题
def parse_url_to_html(url,name, istart, iend):
    heads = {
   'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'}
    response=requests.get(url,headers = heads)
    print(response.status_code)
    soup=BeautifulSoup(response.content,"html.parser")
    mainpages = []
    maintitles= []
    allpages  = []#获取所有的网址
    alltitles = []#获取对应的标题
    tag_main  = soup.find_all(class_ = "cy_plist")[0]#获取第一个id为"nav"的标签,这个里面包含了网址和标题
    
    for i in tag_main.find_all("li"):
        
        if i == None:
            continue
        else:
            mainpages.append(i.a.get('href'))
            maintitles.append(i.a.get_text())
    mainpages.reverse()
    maintitles.reverse()
    
    print("write begin++++++++++++++++>>>>>>>>>>>>>....")
    #获取的只是标签集,需要加html前缀
    suffix = '_' + str(istart) + '-' + str(iend)
    #htmls = "<html><head><meta charset='UTF-8'></head><body> \n"#+str(tag_main)
    #with open(name+suffix+".html",'w',encoding='utf-8') as f:
    #    f.write(htmls)
    #with open("stat.pic"+suffix,'w',encoding='utf-8') as f:
    #    f.write("stats picture info \n")
    print(mainpages)
    
    return mainpages, maintitles

def downlaodImage(url, maintitles, chapter, istart, iend):
      
    heads = 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值