用Python制作简单的爬虫---爬虫基本思想

以http://rmfygg.court.gov.cn/psca/lgnot/bulletin/page/0_0.html
这个网站为例,我们爬取的深度只有一层,只是通过这个例子简单阐述爬虫的基本思想:
</p><p>先上图贴代码:</p><pre name="code" class="python"># -*- coding: utf-8 -*-

from  bs4 import BeautifulSoup
import requests
import re
import Queue
import pdb
import time 
import threading
import json
import codecs
"""
    isCourtPub = Field()       #是否是法院公告
    pubType = Field()          #公告类型
    pubPerson = Field()        #公告人
    client = Field()           #当事人
    pubDate = Field()          #发布时间
    pdfLink = Field()          #PDF下载网址
    detailLink= Field()        #公告链接地址
    collectTime = Field()      #采集时间
"""

url_queue = Queue.Queue()
url_set = set()
match_rule_suffix ='\d+_\d+.html'
start_urls = [
                 "http://rmfygg.court.gov.cn/psca/lgnot/bulletin/page/0_0.html",
                 "http://rmfygg.court.gov.cn/psca/lgnot/bulletin/page/0_1.html"
             ]
base_url = "http://rmfygg.court.gov.cn"

mutex = threading.Lock()

class CrawlSpider(threading.Thread):
    def __init__(self):
        threading.Thread.__init__(self)
    
    def run(self):
        while(url_queue.qsize()>0):
            if mutex.acquire(10):
                current_url = url_queue.get()                   #拿出队列中第一个的url
            mutex.release()
            follow_up_url_list = self.parse_html(current_url)               
            for url in follow_up_url_list:                      #将url放到队列和集合中
                if url not in url_set:      
                    url_set.add(url)
                    url_queue.put(url)
            
    def follow_up_url(self,url,css_soup):                       #寻找到跟进的url
         follow_up_url_list = []                                   
         extract_urls = css_soup.find_all('a')
         rule_match = '.+' + match_rule_suffix
         rule = re.compile(rule_match) 
         for i in range(len(extract_urls)):
             match_url = rule.match(extract_urls[i]['href'])
             if match_url :
                 specific_url = base_url + match_url.group()
                 follow_up_url_list.append(specific_url)
         return follow_up_url_list

    def extract_data(self,url,css_soup):                       #提取网页所需数据
        item = {}
        type_tag = css_soup.find_all('ul')
        if url.split('/')[-1][0] == '0':
            announcement_type = type_tag[0].find_all('li')[0].string
        if url.split('/')[-1][0] == '1':
            announcement_type = type_tag[0].find_all('li')[1].string
        contents = css_soup.find_all('tr')
        for i in range(len(contents[1:])):
            item["isCourtPub"] = announcement_type
            item["pubType"] =  contents[i+1].find_all('td')[0].string
            item["pubPerson"] = contents[i+1].find_all('td')[1].string
            item["client"]  = contents[i+1].find_all('td')[2].string
            item["pubDate"]  = contents[i+1].find_all('td')[3].string
            item["pdfLink"]  =base_url +  contents[i+1].find_all('td')[4].a['href']
            item["detailLink"]  = base_url + contents[i+1].find_all('td')[2].a['href']
            item["collectTime"]  = time.strftime('%Y-%m-%d %H:%M:%S',time.localtime(time.time()))
            self.save(item)
    
    def parse_html(self,url):                                
        css_soup = BeautifulSoup(requests.get(url).text) 
        follow_up_url_list = self.follow_up_url(url,css_soup)
        self.extract_data(url,css_soup)                         
        return follow_up_url_list
    
    def save(self,item):
        line = json.dumps(dict(item), ensure_ascii=False) + "\n"
        file = codecs.open('courtannounce.json', 'a+', encoding='utf-8')
        file.write(line)

def main():
    #将初始的链接放到一个队列中
    for url in start_urls:
        url_set.add(url)
        url_queue.put(url)
    for i in range(10):
        thread = CrawlSpider()
        thread.start()
        time.sleep(1)

if __name__ == "__main__":
    main()

上面是爬取公告的基本思想,先将初始链接地址放到一个队列中(用来对请求调度)和一个set集合中(用于去重)

爬取过程中不仅对请求的数据页面做解析(extract_data),提取数据,同时去匹配我们需要的跟进的链接,然后将

跟进的链接放到queue和set集合中

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 作为一个AI语言模型,我可以回答你的问题。对于Python新手的练习顺序,以下是我建议的顺序: 1.了解基本语法:首先需要学习Python基本语法,例如变量、数据类型、条件语句、循环语句等等。 2.掌握函数:函数是Python编程中的重要概念,因此需要掌握如何定义和调用函数。 3.熟悉模块:Python拥有丰富的模块库,可以帮助我们更快速、高效地完成各种任务,因此需要了解一些常用的模块,例如math、random等等。 4.学习面向对象编程:Python是一种面向对象的编程语言,因此需要学习如何定义类、创建对象以及使用面向对象编程思想。 5.实践项目:学习编程最好的方式是实践,因此建议通过完成一些小型项目来加强自己的编程能力和实战经验。 希望我的建议能对你有所帮助,祝你学习愉快! ### 回答2: 作为Python新手,以下是一些建议的练习顺序: 1. 掌握基本语法:开始学习Python之前,先了解基本的语法结构,如变量、数据类型、运算符、控制语句等。通过阅读教程或参加入门课程可以获得这方面的知识。 2. 简单的输出和输入:练习编写简单的代码,例如打印“Hello, World!”或要求用户输入一些信息。这有助于熟悉基本的输入输出操作。 3. 条件语句:学习如何使用条件语句(如if语句和else语句)来根据条件执行不同的代码块。这是编写更复杂程序所必需的基本知识。 4. 循环结构:掌握循环结构(如for循环和while循环)的使用方法,并尝试编写能够重复执行某段代码的程序。这对于处理大量数据或重复操作非常有用。 5. 函数:学习如何定义和使用函数,函数是一段具有特定功能的可重复使用代码块。通过划分功能和模块化程序,可以提高代码的可读性和复用性。 6. 列表和字典:了解如何使用列表和字典存储和处理数据。列表是有序的数据集合,而字典是键值对的无序集合。这些数据结构在实际编程中经常使用。 7. 文件操作:学习如何读写文件,以及文件的打开、写入和关闭操作。这对于处理大量数据或持久化数据非常有用。 8. 异常处理:了解如何使用异常处理机制来处理程序运行时可能发生的错误。这可以让程序在遇到错误时不崩溃,并做出相应的处理。 9. 模块和库:尝试使用Python内置的模块和第三方库来扩展Python的功能。例如,学习如何使用math模块进行数学计算,或使用numpy库进行科学计算。 10. 小项目:挑战一些小项目来实践所学的知识。例如,编写一个简单的文本游戏、实现一个简单的计算器或制作一个简单的网页爬虫。通过实践项目,可以更好地理解Python编程的实际应用。 练习顺序可能因人而异,根据自己的学习速度和实际需求进行调整。最重要的是坚持练习,通过不断的编程实践提升自己的技能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值