爬取妹子图小程序

import requests
from bs4 import BeautifulSoup
import os



def get_page_urls(url):
    headers = {
        'Content-Language': 'zh-CN.zh;q=0.9',
         'Accept': 'text / html, application / xhtml + xml, application / xml;q = 0.9, image / webp, image / apng, * / *;q = 0.8',
        'User - Agent': 'Mozilla / 5.0(Macintos ;Intel Mac OS X 10_11_6) AppleWebKit / 537.36(KHTML, lik Gecko) Chrome / 67.0.3396.99Safari / 537.36'
    }
    page_urls = []
    # 添加头部,修改解码,获得网页内容
    html = requests.get(url, headers).content.decode('utf-8')
    # print(html)
    soup = BeautifulSoup(html, 'html.parser')
    # results = soup.find_all('img')
    results = soup.select('.panel-body .img_single a')
    for result in results:
        # 获得页码路径,添加
        page_urls.append(result.attrs['href'])
        # print(page_urls)
    return page_urls
    # print(results)


def get_img_urls(page_urls):
    img_urls = []
    # print(page_urls)
    for page_url in page_urls:
        # 在详情图片页面获得内容
        html = requests.get(page_url).text
        soup = BeautifulSoup(html, 'html.parser')
        # 获得详细图片路径
        results = soup.select('.image-wrapper img')
        # print(results)
        for result in results:
            # 添加图片路径
            img_urls.append(result.attrs['src'])
        # print(img_urls)
    return img_urls


def save_img(img_urls):
    # print(img_urls)
    for img_url in img_urls:
        # 获得图片内容
        img = requests.get(img_url).content
        # print(img_url)
        # 根据相应的图片名字更改分离条件
        file_name = img_url.split('https://')[1].replace('/', '_')
        print(file_name)
        with open(file_name, 'wb') as f:
            f.write(img)


if __name__ == '__main__':
    os.makedirs('meizi', exist_ok=True)
    os.chdir('meizi')
    # page = 0
    # 自动翻页
    for page in range(250):
        url = 'https://www.dbmeinv.com/?pager_offset=' + str(page)
        # html = get_html(url)
        # img_urls = get_img_urls(html)
        # save_img(img_urls)
        # 获得页码链接
        page_urls = get_page_urls(url)
        # 获得图片链接
        img_urls = get_img_urls(page_urls)
        # 保存图片
        save_img(img_urls)
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值