python爬取糗事百科的图片

利用python爬取就是百科的所有图片

'''
拼接url,发送请求得到响应内容,分析相应内容,保存数据
'''
import urllib.request
import re
import os
import time
def get_request(new_url):
    hearders = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
    }
    #构建请求对象
    request = urllib.request.Request(url=new_url,headers=hearders)
    return request

def get_content(reques):
    response = urllib.request.urlopen(reques)
    return response.read().decode('utf8')

def parse_content(content):
    patten = re.compile(r'<div class="thumb">.*?<img src="(.*?)" alt="(.*?)" />.*?</div>',re.S)
    ret = patten.findall(content)
    # print(ret)
    dow_load(ret)

def dow_load(ret):
    dirname = 'qiutu'
    for tp in ret:
        #取出图片地址
        image_url = 'https:' + tp[0]
        #取出图片名称
        image_name= tp[1]
        #生成文件夹
        if not os.path.exists(dirname):
            os.mkdir(dirname)
        filename = image_name + '.' + image_url.split(".")[-1]
        filepath = os.path.join(dirname,filename)
        print('开始下载图片%s。。。。' % filename)
        urllib.request.urlretrieve(image_url,filepath)
        print('结束下载图片%s。。。。' % filename)
        time.sleep(2)

def main():
    #请输入起始页码
    start_page = int(input('请输入起始页码:'))
    #请输入终止页码
    end_page = int(input('请输入起始页码:'))
    url = 'https://www.qiushibaike.com/pic/page/'
    for page in range(start_page,end_page+1):
        print("正在下载第%s页....." % page)
        new_url = url + str(page) + '/'
        reques = get_request(new_url)
        content = get_content(reques)
        parse_content(content)
        print("结束下载第%s页....." % page)
        time.sleep(2)

if __name__ == '__main__':
    main()

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python可以用于爬取百度百科的内容。有一本实践技巧的书籍提供了详细的指导[1]。在爬取百度百科的过程中,我们可以设置一个目标,比如爬取1000条词条,并将这些词条的URL地址输出,并将词条的相关信息(URL、标题、概述)写入一个叫output.htm的文件。 在爬取百度百科上的词条时,我们需要注意将爬取到的内容以字典的形式进行整理。通过使用字典,我们可以将词条的标题和相应的内容进行配对。代码示例如下: elem_dict = dict(zip(elem_name, elem_value)) dict_1 = {} for key in elem_dict: print(key.text, elem_dict[key].text) dict_1.update({key.text: elem_dict[key].text}) 通过这样的方法,我们可以将爬取到的词条标题和内容以字典的形式保存下来,方便后续的处理和使用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Python爬虫实战笔记-股票爬取示例.md](https://download.csdn.net/download/weixin_52057528/88258593)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Python爬虫爬取百度百科词条](https://blog.csdn.net/DongChengRong/article/details/77924695)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [基于python里selenium库的信息盒爬取](https://blog.csdn.net/poorlytechnology/article/details/109574110)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值