selenium+IE爬取行政处罚信息公示表

爬取某官网的行政处罚信息公示表,先从官网的某省市分站进行数据抓取,每个网页包括10条数据,共31页310份文书,批量下载到行政处罚文书文档,为后期使用python代码合并和数据筛选提供基础的数据信息。
目标网页,每页10条信息:
首页
详情网页,每页只有一条信息(信息公示表),点击该点信息可以下载保存。
详情网页
首先分析首页链接地址和第二页,第三页及下一页的链接地址,发现首页链接地址差异较大,从第二页开始,地址index后面多了页数编号,index前面多了20713/,找出了规律就好办了。

pageurl0='http://guangzhou.pbc.gov.cn/guangzhou/129142/129159/129166/index.html'#首页的链接
pageurl='http://guangzhou.pbc.gov.cn/guangzhou/129142/129159/129166/20713/index'+str(num)+'.html'#第二页及后面各页的链接

网站上右键点击可以查看到详情页的链接地址和原码,但是F12调用开发人员工具,找不到详情页的链接和内容。返回的response是空的,只有网站的框架结构代码。
绕道,使用selenium+IE,返回的browser.page_source出现了详情页的链接地址。
决定用selenium构造完整的下载链接地址。
使用IE浏览器模拟点击。结果发现,Firefox,Chrome浏览器已成爬取网页的主流。我还是坚持用IE浏览器,因为公司内部使用的就是IE,结果就是,IE浏览器不仅速度慢,还出现了一些意想不到的难题。许多人使用selenium过程中都绕开了IE浏览器,也是无奈中的办法。
先上代码:

from selenium import webdriver
from selenium.webdriver.common.by import By
#from selenium.webdriver.support.ui import webDriverWait 
from selenium.webdriver.support import expected_conditions as EC
from bs4 import BeautifulSoup
from lxml import etree
import time,re
import os
import requests
import random
import urllib.request
from urllib.request import urlopen
import win32api
import win32con

def doctext(url_next,header):
    wb=requests.get(url_next,headers=header)
    wb.encoding='utf-8'
    print(wb)
    browser.get(url_next)#根据第一页生成的链接地址,获取第二页信息
    time.sleep(2)
    text = re.findall(r'td align="left" class="hei14jj"><p>(.*?)</a></p></td>',browser.page_source)#从第二页信息中提取每一条处罚书的链接和名称 
    #print(text)
    url_next2 = re.findall(r'a href=\"(.*?)\">',text[0])#提取每一条处罚书的链接    
    url_down = 'http://guangzhou.pbc.gov.cn'+url_next2[0]#加上网站的链接头,构成完整的处罚书下载链接    
    
    #打印抓取到的行政处罚信息公示表的名称    
    url_text = re.findall(r'DOC">(.*?)\.DOC',text[0])#行政处罚信息公示表的格式为DOC的文档名称,如果不是DOC,返回一个空的列表
    fileType = '.DOC'                                #文档名称的扩展名
    if url_text == []:#如果不是DOC,接着判断是不是xls
           url_text = re.findall(r'xls">(.*?)\.xls',text[0])#行政处罚信息公示表的格式为.xls的文档名称
           fileType = '.xls'
           if url_text == []:#如果不是xls,接着判断是不是et
               url_text = re.findall(r'et">(.*?)\.et',text[0])#行政处罚信息公示表的格式为.et的文档名称
               fileType = '.et'
               if url_text == []:
                   url_text = re.findall(r'doc">(.*?)\.doc',text[0])#行政处罚信息公示表的格式为doc的文档名称
                   fileType = '.doc'
                   if url_text == []:
                       url_text = re.findall(r'ET">(.*?)\.ET',text[0])#行政处罚信息公示表的格式为.ET的文档名称
                       fileType = '.ET'
                       if url_text == []:
                           url_text = re.findall(r'docx">(.*?)\.docx',text[0])#行政处罚信息公示表的格式为docx的文档名称
                           fileType = '.docx'
                           if url_text == []:
                               url_text.append(url_down[-23:])
                               fileType = url_down[-4:]
    #print(url_text)
    print('下载网址:%s' % (url_down))    
    if fileType == '.xls' or fileType == '.xlsx' or fileType == '.et' or fileType == '.ET':
        browser.get(url_down)
        time.sleep(3)
        #alt+s快捷键
        win32api.keybd_event(0x12, 0, 0, 0) #按下alt
        win32api.keybd_event(83, 0, 0, 0) #按下s
        win32api.keybd_event(83, 0, win32con.KEYEVENTF_KEYUP, 0) #松开s
        win32api.keybd_event(0x12, 0, win32con.KEYEVENTF_KEYUP, 0) #松开alt
        time.sleep(3)        
        print('已下载并保存:%s' % (url_text[0]))
    else:
        print('等待下载:%s%s' % (url_text[0],fileType))

def Excel_down(pageurl):
    print(pageurl)#第n页,包括10条数据
    browser.get(pageurl)
    time.sleep(2)
    #webDriverWait(drive,10).until(EC.presence_of_element_located((By.ID,'')))    
    titles = re.findall(r'font class="hei12">(.*?)</a></font>',browser.page_source)
    urls = []#第n页,10条数据所对应的链接网页
    for title in titles:
        url = re.findall(r'href=\"(.*?)\" target="_blank">',title)
        urls.append('http://guangzhou.pbc.gov.cn'+url[0])
    
    user_agent_list = ["Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36",
                    "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36",
                    "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:60.0) Gecko/20100101 Firefox/61.0",
                    "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36",
                    "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36",
                    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36",
                    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)",
                    "Mozilla/5.0 (Macintosh; U; PPC Mac OS X 10.5; en-US; rv:1.9.2.15) Gecko/20110303 Firefox/3.6.15",
                    ]
    header={'User-Agent':'Mozilla/5.0'}
    header['User-Agent'] = random.choice(user_agent_list)
    for i in range(len(urls)):#第n页,10条数据所对应的链接网页,逐条点击并进入对应的网页
        #print(urls[i])
        url_next = urls[i]
        doctext(url_next,header)     #第一页的数据
    
if __name__ == '__main__':
    start = time.time()
    IEdriver = "C:\Program Files\internet explorer\IEDriverServer.exe"    
    browser = webdriver.Ie(IEdriver)
    url_all = []
    pageurl0='http://guangzhou.pbc.gov.cn/guangzhou/129142/129159/129166/index.html'
    url_all.append(pageurl0)
    num = 2         #从第2页开始    
    while num <= 5: #从第2页开始,总共要爬取多少页,置为N     
        pageurl='http://guangzhou.pbc.gov.cn/guangzhou/129142/129159/129166/20713/index'+str(num)+'.html'
        #print(pageurl)
        url_all.append(pageurl)        
        num +=1
    for i in range(len(url_all)):
        #print(url_all[i])
        url_next1 = url_all[i]
        Excel_down(url_next1)
    end = time.time()
    print ('运行时间:', end-start)

爬取到的文档保存在指定的路径
批量下载并保存处罚通知书文档
先试试爬取前面5页的数据,碰到几个难题。
第一个就是下载弹窗,selenium无法识别到弹窗,如果是Firefox,Chrome浏览器下载保存均可预设1次后,不再每次提示,自动化进程不会被打断。偏偏这个IE下载弹窗是window系统级别的窗口,在自动触发下载前,用win32API还获取不到该下载提示窗的句柄,触发后由于停在提示上,不进行手点鼠标或手工按ALT+S,程序就执行不下去。查出了许多资料,可调用AutoIT实现自动下载并保存文件,于是SciTE Script Editor写了一个脚本:

Sleep(1000)
ControlFocus("Internet Explorer","","DirectUIHWND1")
WinWait("[CLASS:#32770]","",10)
ControlClick("Internet Explorer","","Button2")
Sleep(1000)

保存为au3格式,编译成可执行文件autobaocun.exe,编译后在Python代码中调用。

import subprocess

file_path=r'C:\Users\CF-SZ5\Downloads\处罚通知书'
cmd='D:/CF-sz5/pachu/autobaocun.exe'+' '+file_path
p = subprocess.Popen(cmd, stdout=subprocess.PIPE, shell=True,stderr=subprocess.PIPE)
out, err = p.communicate()
if p.returncode == 0:
    print('ok')

单独运行可以自动完成下载,但是放到Python整个爬取文件的代码中,运行到弹窗就停了。
放弃AutoIT,使用 win32api和 win32con模拟键盘自动点击,完成自动下载保存。

time.sleep(3)
        #alt+s快捷键
        win32api.keybd_event(0x12, 0, 0, 0) #按下alt
        win32api.keybd_event(83, 0, 0, 0) #按下s
        win32api.keybd_event(83, 0, win32con.KEYEVENTF_KEYUP, 0) #松开s
        win32api.keybd_event(0x12, 0, win32con.KEYEVENTF_KEYUP, 0) #松开alt
        time.sleep(3)        
        print('已下载并保存:%s' % (url_text[0]))

又发现一个难题,当下载文档是Words时,弹窗位置和名称出现了变化 ,就无法自动点击完成下载保存。最后,只下载到扩展名是xls和et的文档。为确保爬虫程序顺利运行,增加了下载文档的扩展名判断,并且只对扩展名是xls和et的文档进行下载。

#打印抓取到的行政处罚信息公示表的名称    
    url_text = re.findall(r'DOC">(.*?)\.DOC',text[0])#行政处罚信息公示表的格式为DOC的文档名称,如果不是DOC,返回一个空的列表
    fileType = '.DOC'                                #文档名称的扩展名
    if url_text == []:#如果不是DOC,接着判断是不是xls
           url_text = re.findall(r'xls">(.*?)\.xls',text[0])#行政处罚信息公示表的格式为.xls的文档名称
           fileType = '.xls'
           if url_text == []:#如果不是xls,接着判断是不是et
               url_text = re.findall(r'et">(.*?)\.et',text[0])#行政处罚信息公示表的格式为.et的文档名称
               fileType = '.et'
               if url_text == []:
                   url_text = re.findall(r'doc">(.*?)\.doc',text[0])#行政处罚信息公示表的格式为doc的文档名称
                   fileType = '.doc'
                   if url_text == []:
                       url_text = re.findall(r'ET">(.*?)\.ET',text[0])#行政处罚信息公示表的格式为.ET的文档名称
                       fileType = '.ET'
                       if url_text == []:
                           url_text = re.findall(r'docx">(.*?)\.docx',text[0])#行政处罚信息公示表的格式为docx的文档名称
                           fileType = '.docx'
                           if url_text == []:
                               url_text.append(url_down[-23:])
                               fileType = url_down[-4:]
    #print(url_text)
    print('下载网址:%s' % (url_down))    
    if fileType == '.xls' or fileType == '.xlsx' or fileType == '.et' or fileType == '.ET':
        browser.get(url_down)
        time.sleep(3)
        #alt+s快捷键
        win32api.keybd_event(0x12, 0, 0, 0) #按下alt
        win32api.keybd_event(83, 0, 0, 0) #按下s
        win32api.keybd_event(83, 0, win32con.KEYEVENTF_KEYUP, 0) #松开s
        win32api.keybd_event(0x12, 0, win32con.KEYEVENTF_KEYUP, 0) #松开alt
        time.sleep(3)        
        print('已下载并保存:%s' % (url_text[0]))
    else:
        print('等待下载:%s%s' % (url_text[0],fileType))

最后,成功爬取到4页,xls和et的文档。总结一下有待完善的地方:
1。IE下载提示要打开或保存时是模拟键盘点击,所以下载过程一使用键盘就会中断运行。
2。IE下载速度较慢,要根据网速设置爬取过程中的停留时间,否则下载的文件可能不全。
3。少部分Word格式的文档,有待重新写代码才能下载,或者只能放弃IE浏览器,改用Firefox,Chrome浏览器。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值