(47)-- 用线程简单爬取网络页面

#用线程简单爬取网络页面


from urllib import request
from multiprocessing import Process,Queue

def downloader(url_queue):
    p = url_queue.get()
    response = request.urlopen(p)

    html = response.read()
    content = html.decode("utf-8")
    path_list=p.split('/')
    file_name = path_list[-1]

    with open(file_name,"w",encoding = "utf-8") as f:
        f.write(content)


if __name__ == "__main__":

    url_queue = Queue()

    s1 = "http://www.langlang2017.com/index.html"
    s2 = "http://www.langlang2017.com/route.html"
    s3 = "http://www.langlang2017.com/FAQ.html"
    url_queue.put(s1)
    url_queue.put(s2)
    url_queue.put(s3)

    p1 = Process(target=downloader, args=(url_queue, ))
    p1.start()

    p2 = Process(target=downloader, args=(url_queue, ))
    p2.start()

    p3 = Process(target=downloader, args=(url_queue, ))
    p3.start()









兄弟连学python


Python学习交流、资源共享群:563626388 QQ

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值