Python3爬虫之破解图片防盗链

import requests, os, os.path, random
from bs4 import BeautifulSoup


def get_soup(url):
    """
    获取网站的soup对象
    """
    req = requests.get(url,)
    html = req.text
    soup = BeautifulSoup(html, features='html.parser')
    return soup


def get_pages(url):
    """
    获取妹子图网站的页数
    """
    soup = get_soup(url)
    nums = soup.find_all('a', class_='page-numbers')
    pages = int(nums[-2].text)
    return pages


def get_menu(url):
    """
    获取页面的所有妹子图主题的链接名称和地址,记入列表
    """
    soup = get_soup(url)
    menu = []
    menu_list = soup.find_all('a', target='_blank')
    for i in menu_list:
        result = i.find_all('img', class_='lazy')
        if result:
            # 图片名字
            name = result[0]['alt']
            address = i['href']
            menu.append([name, address])
    return menu


def get_links(url):
    """
    获取单个妹子图主题一共具有多少张图片
    """
    soup = get_soup(url)
    all_ = soup.find_all('a')
    nums = []
    for i in all_:
        span = i.find_all('span')
        if span:
            nums.append(span[0].text)
    return nums[-2]


def get_image(url, filename):
    """
    从单独的页面中提取出图片保存为filename
    """
    soup = get_soup(url)
    image = soup.find('img').attrs.get('src')

    img_content = requests.get(image,).content
    with open(filename, 'wb') as f:
        f.write(img_content)


def main(page):
    """
    下载第page页的妹子图
    """
    print('正在下载第 %s 页' % page)
    page_url = url + '/page/' + str(page)
    menu = get_menu(page_url)
    print('@@@@@@@@@@@@@@@@第 %s 页共有 %s 个主题@@@@@@@@@@@@@@@@' % (page, len(menu)))
    for i in menu:
        # i[0]代表图片主题名字
        dir_name = os.path.join('MeiZiTu', i[0])
        if not os.path.exists(dir_name):
            os.makedirs(dir_name)
        pic_nums = int(get_links(i[1]))
        print('\n\n\n@@@@@@@@@主题 %s 一共有 %d 张图片@@@@@@@@@\n' % (i[0], pic_nums))
        for pic in range(1, pic_nums + 1):
            basename = str(pic) + '.jpg'
            filename = os.path.join(dir_name, basename)
            # MeiZiTu\性感美女桃子衣不蔽体 丰乳肥臀难抵诱惑\6.jpg
            pic_url = i[1] + '/' + str(pic)
            # 获取单张图片的url  http://www.mzitu.com/102205/3
            if not os.path.exists(filename):
                pass
                print('......%s' % basename, get_image(pic_url, filename))
            else:
                print(filename + '已存在,略过')


if __name__ == '__main__':
    url = 'http://www.mzitu.com/'
    pages = get_pages(url)
    print('$$$$$$$$$妹子图一共有 %s 页$$$$$$$$$$$$$$' % pages)
    if not os.path.exists('MeiZiTu'):
        os.mkdir('MeiZiTu')
    page_start = input('Input the first page number:\n')
    page_end = input('Input the last page number:\n')
    if int(page_end) > int(page_start):
        for page in range(int(page_start), int(page_end)):
            main(page)
    elif page_end == page_start:
        main(page_end)
    else:
        print("输入错误,起始页必须小于等于结束页\n")
防盗链是指为了阻止其他网站或用户在未经授权的情况下盗用自己网站的资源而采取的一种措施。在Python中,可以通过设置请求头中的"Referer"字段来进行防盗链。 在给定的代码中,通过设置请求头的"referer"字段来模拟请求时的来源页面。这样,被请求的服务器可以根据Referer字段来判断请求的合法性。如果请求的Referer字段与服务器期望的来源页面匹配,则服务器会正常返回请求的资源。否则,服务器可能会返回错误或者拒绝提供资源。 具体来说,在代码中的header字典中设置了"referer"字段的值为"https://www.pearvideo.com/video_1160135",这是一个示例的来源页面链接。根据实际情况,可以将该字段的值设置为合法的来源页面链接。 在请求中,会根据提供的链接获取视频资源的URL,并进行一些拼接替换操作,最终得到视频的真实URL。然后可以使用Python的requests库发送GET请求,获取到视频资源的内容,并进行保存。 总结起来,这段Python代码通过设置请求头的Referer字段来模拟合法的请求来源,从而实现防盗链的效果。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [python爬虫学习--防盗链](https://blog.csdn.net/weixin_30675247/article/details/95668172)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Python--爬虫,了解防盗链-->解决防盗链,解决反反反爬](https://blog.csdn.net/qq_57663276/article/details/127474123)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值