使用Python爬取分析政府采购网数据

       好久没写博客了,一直觉得之前写的都没啥技术性,这次分享个最近觉得很值得记录的一次操作吧~。
        Leader临时分配给我个任务,要我爬取下政府采购网近一个月公开招标中二三甲医院的数据,这一下可把我难住了,要求还要用Python。
       自己一直干的是Java开发,学校接触过的Python也是对图像进行一些简单的处理啥的,从来没有搞过爬虫,但是既然任务下来了,我肯定也想挑战下自己。
       既然自己从来没有写过类似的功能,那就第一步就是打开Gayhub了,寻找前辈们写过的轮子了~,果不其然,Gayhub上真被我找到了一个关于政府采购网数据爬取的项目了https://github.com/Clemente420/ccgp_gov,此处忽略安装配饰Python环境。接下来就是一顿骚操作,git clone https://github.com/Clemente420/ccgp_gov.git ,将项目克隆下来,发现chromedriver东东没见过,但是看着名字就知道是什么谷歌浏览器的驱动的了,于是乎就能才想到,应该是Python代码模拟打开谷歌浏览器,然后对网页标签进行分析记录了。配置chromedriver见文章windows下配置chromedriver。废话不多说,上代码。


```python
# -*- coding: utf-8 -*-
import time

import pymysql
import xlrd
import xlutils.copy
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from multiprocessing.dummy import Pool as ThreadPool
from selenium.common.exceptions import NoSuchElementException


def connectDB():
    host = "127.0.0.1"
    dbName = "crwal_gov"
    user = "root"
    password = "123456"
    # 此处添加charset='utf8'是为了在数据库中显示中文,此编码必须与数据库的编码一致
    db = pymysql.connect(host, user, password, dbName, charset='utf8')
    return db
    cursorDB = db.cursor()
    return cursorDB


def inserttable(item_name, budget_amount, admin_name, website_list):
    insertContentSql = "INSERT INTO tj" + "(item_name,budget_amount,admin_name,website_list)VALUES(%s,%s,%s,%s)"
    DB_insert = connectDB()
    cursor_insert = DB_insert.cursor()
    cursor_insert.execute(insertContentSql, (item_name, budget_amount, admin_name, website_list))
    DB_insert.commit()
    DB_insert.close()


def sub_crawler(website_list):
    chrome_options = Options()
    chrome_options.add_argument("--headless")  # 无头chrome 不打开浏览器进行模拟点击
    chrome_options.add_argument('--no-sandbox')
    chrome_options.add_argument('--disable-dev-shm-usage')
    driver = webdriver.Chrome(options=chrome_options)
    driver.maximize_window()
    driver.get(website_list)
    time.sleep(0.5)
    print(website_list)  # 检错

    try:
        item_name = driver.find_element_by_xpath(
            "//*[@id='detail']/div[2]/div/div[2]/div/div[2]/table/tbody/tr[2]/td[2]").text
        budget_amount = driver.find_element_by_xpath(
            "//*[@id='detail']/div[2]/div/div[2]/div/div[2]/table/tbody/tr[11]/td[2]").text
        admin_name = driver.find_element_by_xpath(
            "//*[@id='detail']/div[2]/div/div[2]/div/div[2]/table/tbody/tr[4]/td[2]").text

        inserttable(item_name, budget_amount, admin_name, website_list)

        print("已爬取{}\n".format(item_name))

    except NoSuchElementException as msg:
        print("已爬取{}\n{}\n".format("异常版面,需手动标注", website_list))

    driver.quit()


def crawler(url, threadNum):
    chrome_options = Options()
    chrome_options.add_argument("--headless")  # 无头chrome
    chrome_options.add_argument('--no-sandbox')
    chrome_options.add_argument('--disable-dev-shm-usage')
    driver = webdriver.Chrome(options=chrome_options)
    driver.maximize_window()
    driver.get(url)

    # 开始爬信息 (第一页)
    website_list = [elemente.get_attribute("href") for elemente in
                    driver.find_elements_by_css_selector("a[style='line-height:18px']")]
    time.sleep(0.8)
    # 剩余页 爬信息
    print(len(website_list))  # 爬到的信息条数
    driver.quit()
    pool = ThreadPool(processes=threadNum)
    pool.map(sub_crawler, website_list)
    pool.close()
    pool.join()


if __name__ == "__main__":
    page_num = 1
    threadNum = 8
    # url要事先把选项选好,还有页数记好
    url1 = 'http://search.ccgp.gov.cn/bxsearch?searchtype=1&page_index='

    url2 = '&bidSort=0&buyerName=&projectId=&pinMu=++0&bidType=1&dbselect=bidx&kw=系统&start_time=2020%3A04%3A27&end_time=2020%3A05%3A27&timeType=6&displayZone=&zoneId=&pppStatus=0&agentName='

for num in range(1, 6):
    index = url1 + str(num) + url2

    crawler(index, threadNum)

!!!! 接下来看骚操作

        我这里的代码和参考github上的代码有点不同,而且要求的是爬取近一个月并且关键词是系统的公开性招标。
在这里插入图片描述
原本作者采用的是保存的csv文件中,但是没什么格式,我后来经过几番翻别人博客,然后将数据保存在Excle中,这样就有了行列,数据格式就比价清晰了,但是代码一跑起来发现,每次数据保存都把上次保存的清空了,于是又找到个追加数据到Excle中,这个时候,代码会先读取原本Excle中已有的数据,然后拷贝一份,再把最新爬取分析到的数据追加到拷贝数据的后面,再把这个完整的数据保存到Excle中。
        上面似乎看起来已经没啥问题了,但是当开启多Excle线程的时候,又出现了问题,线性同时运行,会造成抢占Excle的冲突,这个时候又不行了,然后又对代码进行改造,改成单线程,但是又怕会消耗太多时间,通过分析爬取的列表地址栏,发现其实分成多个梯度进行爬取,然后将代码copy多份,然后分别爬取不同页数的数据。
在这里插入图片描述
可以看到page_index这个参数,然后这个参数对象对应着第几页,在这里插入图片描述
这样我就每个Python只爬取个十来页左右,然后存到不同的Excle里面,原本以为这样就可以了,顶多到时候将Excle里面的数据进行合并,于是就开个远程下班回家了,但是!!!,回家到远程看到还是报错了,问题还是出在Excle上,还是偶尔会出现打开文件然后对数据存储失败的情况。
        既然还是不行,那就换一种思路,有没有可以不用涉及到前一个保存的记录,直接存就行了,这个时候就想到了数据库,于是,又打开搜索引擎,搜索如何使用Python将数据保存到数据库中,经过查看几篇博客,于是再将保存数据到Excle部分的代码又进行一番改造,将数据保存到MySQL中,这个时候总不会出现文件读取的一系列的问题了吧。
       事情总没有想象中的顺利,使用MySQL也会出现报错,原因是Python模拟打开谷歌浏览器的时候,访问中国政府采购网相关招标信息详情的时候会出现网页打不开的情况,个人猜想有两个原因:1、网络不稳定,笔记本连的wifi可能出现波动等情况;2、开了很多个线程,导致网速还是反正不过来。第二天到公司在爬虫开启的同时,我打开浏览器确实访问很多页面也很慢,可能是模拟打开的网页太多网速吃不过来。但是还好之前已经分成很细的梯度进行爬取了,然后又对每个招标信息的详细网址进行记录了,这样的话,即使一个失败了,也可以重试,虽然会造成数据重复,但是由于保留了网址,每个详细信息网址是唯一的,后期去重就可以了。
       终于等了快一个小时,总算全部爬完了。但是在筛选数据的时候又出现问题了,首先使用GROUP BY 然后在找出主键ID不在GROUP BY 结果集里面的数据
原始数据
在这里插入图片描述

在这里插入图片描述
运行一看,发现结果居然是空,寻思一想问题应该是出在ID上,或者是因为GROUP BY 和前面使用的IN是同一张表的原因,于是我copy一份相同的表,然后再执行,发现还是不行o(╥﹏╥)o
        果断打开搜索引擎,几番查找,又发现一个叫MIN()MySQL函数,这样的话,在GROUP BY重复的数据,就只会保存ID最小的重复数据了,然后再直接用IN,查出来的结果集直接create一张表,存到最终的结果集,这样就基本完成了~。最后就根据要求该出的二三甲医院名单,筛选出最终符合要求的招标信息了。
在这里插入图片描述
最后需要的数据
在这里插入图片描述
        前前后后花了差不多一天时间,虽然这次代码很简单,但是其中的思路转换我觉得很值得去体会,学习,通过这次数据爬取,数据筛选清洗,也学到了很多解决问题的思路。

  • 11
    点赞
  • 83
    收藏
    觉得还不错? 一键收藏
  • 22
    评论
使用 Python 爬取 58 同城二手房数据的步骤如下: 1. 导入 requests 和 BeautifulSoup 库。 ```python import requests from bs4 import BeautifulSoup ``` 2. 设置请求头,模拟浏览器请求。 ```python headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} ``` 3. 设置爬取的 URL,例如: ```python url = 'https://bj.58.com/ershoufang/' ``` 4. 发送请求,获取网页源代码。 ```python response = requests.get(url, headers=headers) html = response.text ``` 5. 使用 BeautifulSoup 解析网页源代码,提取需要的数据。 ```python soup = BeautifulSoup(html, 'html.parser') house_list = soup.find('ul', class_='house-list-wrap').find_all('li') for house in house_list: title = house.find('div', class_='title').get_text().strip() price = house.find('div', class_='price').find('p').get_text().strip() area = house.find('div', class_='area').find('p').get_text().strip() print(title, price, area) ``` 6. 将数据保存到文件数据库中。 ```python with open('output.txt', 'w', encoding='utf-8') as f: for house in house_list: title = house.find('div', class_='title').get_text().strip() price = house.find('div', class_='price').find('p').get_text().strip() area = house.find('div', class_='area').find('p').get_text().strip() f.write(title + '\t' + price + '\t' + area + '\n') ``` 需要注意的是,爬取 58 同城二手房数据需要遵守相关法律法规和 58 同城的规定,不得用于商业目的。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 22
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值