python3爬虫学习之生产者与消费者爬虫

我们将了解到两个版本的消费者与生产者的实例

一,Lock版

import threading
import random
import time

#假设有5个消费者3个生产者,生产者的赚钱区间为100-1000元,消费者的消费区间100-1000,
# 要求生产者只生产10次,消费者无消费次数要求
#当余额低于消费时给出余额不足的提醒
#当存款小于最低消费额时,结束程序

#设置初始余额1000
gMoney = 1000

#初始一个次数为1
Times = 1

gLock = threading.Lock()

#定义生产者线程
class producer(threading.Thread):
    def run(self):
        global gMoney
        global Times
        while True:
            money = random.randint(100,1000)
            gLock.acquire()
            if Times > 10:
                gLock.release() #这里一定要释放锁,不然会死锁
                break
            gMoney += money
            print("%s 生产了 %d 的钱,现在余额为 %d" % (threading.current_thread(),
                                                money,gMoney))
            Times += 1
            gLock.release()
            time.sleep(2)

#定义消费者
class consumer(threading.Thread):
    # global gMoney
    def run(self):
        global gMoney
        global Times
        while True:
            money = random.randint(100,1000)
            gLock.acquire()
            if gMoney >= money :
                gMoney -= money
                print("%s 消费了 %d 的钱,现在余额为 %d" % (threading.current_thread(),
                                                 money, gMoney))
            else:
                if Times >= 10:
                    gLock.release()#这里也要释放锁
                    break
                print("%s 准备消费 %d 的钱,余额为 %d ,余额不足!" % (threading.current_thread()
                                                       ,money,gMoney))
            gLock.release()
            time.sleep(2)

def main():
    for x in range(3):
        t = producer(name = "生产者线程%d" % x)
        t.start()

    for x in range(5):
        t = consumer(name = "消费者线程%d" % x)
        t.start()

if __name__ == '__main__':
    main()

我们可以清晰看到要求,我们首先分析生产者

我们要求生产者只生产10,而且每次生产的钱是个有限制的随机数,我们让它继承父类,然后申请锁。

判断生产次数,如果已经达到10次,我们释放锁,并退出整个生产者。

如果没有到次,我们把钱加上去,把生产次数+1,释放锁,沉睡两秒。

我们在分析消费者

先判断余额是否大于消费金额,如果是,允许消费并扣除金额

如果余额不足,我们需要判断,生产者还会不会继续生产

如果不继续生产,我们释放锁,退出

如果继续生产,我们不允许消费,释放锁,等待生产者生产。

最后,在主函数定义3个生产者,5个消费者,我们看看结果

这样,我们就完成了要求。

二,Condition版

import threading
import random
import time

#假设有5个消费者3个生产者,生产者的赚钱区间为100-1000元,消费者的消费区间100-1000,
# 要求生产者只生产10次,消费者无消费次数要求
#当余额低于消费时给出余额不足的提醒
#当存款小于最低消费额时,结束程序

#设置初始余额1000
gMoney = 1000

#初始一个次数为1
Times = 1

gCondition = threading.Condition()

#定义生产者线程
class producer(threading.Thread):
    def run(self):
        global gMoney
        global Times
        while True:
            money = random.randint(100,1000)
            gCondition.acquire()
            if Times > 10:
                gCondition.release() #这里一定要释放锁,不然会死锁
                break
            gMoney += money
            print("%s 生产了 %d 的钱,现在余额为 %d" % (threading.current_thread(),
                                                money,gMoney))
            Times += 1
            gCondition.notify_all() #通知所有等待的线程
            gCondition.release()
            time.sleep(2)

#定义消费者
class consumer(threading.Thread):
    # global gMoney
    def run(self):
        global gMoney
        global Times
        while True:
            money = random.randint(100,1000)
            gCondition.acquire()
            while gMoney < money:
                #不能用if 用if时,如果wait 等到通知,不会立刻执行下面的语句
                #导致该线程运行时可能gMoney不足
                if Times >= 10:
                    gCondition.release() #这里一定要释放锁
                    return #return 可以直接退出两层while循环,break只能退出当前while
                print("%s 准备消费 %d 的钱,余额为 %d ,余额不足!" % (threading.current_thread()
                                                       , money, gMoney))
                gCondition.wait()
            gMoney -= money
            print("%s 消费了 %d 的钱,现在余额为 %d" % (threading.current_thread(),
                                             money, gMoney))
            gCondition.release()
            time.sleep(2)

def main():
    for x in range(3):
        t = producer(name = "生产者线程%d" % x)
        t.start()

    for x in range(5):
        t = consumer(name = "消费者线程%d" % x)
        t.start()

if __name__ == '__main__':
    main()

这个和Lock版大同小异,但,异点也是关键点,这里不在分析了,运行结果和Lock版基本一样,也不再贴出来

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是:网络请求:模拟浏览器的行为从网上抓取数据。数据解析:将请求下来的数据进行过滤,提取我们想要的数据。数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是:爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求!【课程服务】 专属付费社群+定期答疑
### 回答1: 您好!以下是一个使用 Python 爬虫动态爬取数据的简单实例: ```python import requests from bs4 import BeautifulSoup # 用 requests 库发送请求 url = "https://example.com/dynamic_page" response = requests.get(url) # 使用 BeautifulSoup 解析响应内容 soup = BeautifulSoup(response.text, 'html.parser') # 提取需要的数据 data = soup.find_all("div", class_="dynamic-data") # 打印提取的数据 print(data) ``` 这个实例使用 requests 库向网站发送请求,并使用 BeautifulSoup 解析响应内容。然后,通过调用 BeautifulSoup 对象的 `find_all` 方法提取需要的数据,最后通过 `print` 函数打印提取的数据。 请注意,上面的代码仅作为示例,因为动态爬取的网站的结构可能因网站而异,因此您需要根据网站的具体情况自行调整代码。 ### 回答2: Python爬虫是一种用来自动获取网页信息的程序,可以用于爬取静态或动态网页。下面是一个使用Python爬虫动态爬取的实例: 首先,我们需要安装相关的库,如requests和BeautifulSoup。然后,我们可以使用requests库来获取网页的内容,并使用BeautifulSoup库来解析网页。 假设我们需要爬取一个动态生成的新闻网页,该网页会根据不同的页面滚动加载更多的新闻。我们可以通过模拟滚动加载的过程来动态地获取所有的新闻。 首先,我们发送一个初始的请求来获取第一页的新闻内容。然后,我们可以通过查看网页的源代码或使用浏览器的开发者工具来找到滚动加载时发送的请求。 接下来,我们可以分析这个请求的URL和参数,然后使用requests库来发送这个请求,并获取到响应的内容。通常,这个响应的内容是一个JSON格式的数据,其中包含了新闻的信息。 我们可以使用Python的json库来解析JSON数据,并提取我们需要的信息。然后,我们可以将这些信息保存到一个文件或数据库中,或者进行其他的处理。 接着,我们可以继续发送滚动加载的请求,直到获取到了所有的新闻。这可以通过循环发送请求的方式来实现,每次发送请求之后,我们需要解析响应的内容,并判断是否还有更多的新闻。 最后,我们可以将所有的新闻保存到一个统一的文件中,或者根据需要进行其他的处理。 这只是一个使用Python爬虫动态爬取的简单实例,实际的应用中可能还涉及到一些其他的技术和处理方式。希望以上内容对你有所帮助! ### 回答3: Python爬虫是一种用于自动获取网页数据的程序。通常情况下,我们使用爬虫来从静态网页中获取数据。但是有些网站使用了JavaScript等动态技术来加载网页内容,这给爬虫带来了一定的挑战。 对于动态网页,我们可以通过模拟浏览器行为来获取数据。这可以通过使用Python的Selenium库来实现。Selenium可以模拟用户在浏览器中的操作,包括点击按钮、输入文本等动作。它还可以等待页面加载完成后再进行下一步操作,以确保获取到完整的页面数据。 下面以一个例子来说明如何使用Python爬虫动态爬取数据。假设我们要从一个使用了AJAX技术的网站上获取电影相关信息。 首先,我们需要安装Selenium库。可以使用以下命令来安装: pip install selenium 然后,我们需要安装适合的浏览器驱动程序。Selenium支持多种浏览器,如Chrome、Firefox等。这里以Chrome浏览器为例。可以通过以下链接下载对应本的Chrome驱动程序:https://sites.google.com/a/chromium.org/chromedriver/downloads 接下来,我们需要导入Selenium库,并配置浏览器驱动路径: from selenium import webdriver driver_path = "/path/to/chromedriver" # Chrome驱动程序路径 driver = webdriver.Chrome(driver_path) 然后,我们可以使用Selenium模拟浏览器操作,访问网页并获取数据: url = "http://example.com" # 网页地址 driver.get(url) # 访问网页 # 等待数据加载完成 driver.implicitly_wait(10) # 等待10秒 # 获取页面数据 data = driver.page_source 最后,我们可以对获取到的数据进行解析和提取,获取我们需要的信息。 以上是一个简单的Python爬虫动态爬取实例。通过使用Selenium库,我们可以模拟浏览器行为,实现对动态网页的爬取。当然,具体的实现还需要根据具体的需求和网页情况进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值