python的requests库和beautifusoup库爬取妹子图

一:python爬虫-利用requests库获取网页的信息

记录一下自己的爬虫过程吧
其实在爬之前我是想用jsonpath和json的,然后我发现打开美图吧这个网站后我只想到到了requests库和beautifulsoup库爬取的方法(狗头)

不多说,直接上代码:

import requests
from bs4 import BeautifulSoup

def getHtml(url):
    cookie = {
    'UM_distinctid': '1727e776cfc7c6-0de60d097b0f15-c373667-144000-1727e776cfd9a6',
    'CNZZDATA1256622196': '1626070704-1591255197-null%7C1591255197',
    'Hm_lvt_1941ba27d34dec171a181ef89e310488': '1591259656',
    'Hm_lpvt_1941ba27d34dec171a181ef89e310488': '1591260180',
    }
    header = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36'}
    r = requests.get(url, headers=header, cookies=cookie)
    r.encoding = r.apparent_encoding
    return r.text

def getImage(html, result):
    soup = BeautifulSoup(html, 'html.parser')
    # 返回一个字典
    tergets = soup.find_all("img", {'style':"display: inline;"})
    for each in tergets:
        result.append(each['src'])
    return result


def main():
    result = []
    num = 1   # 图片序号
    url = 'http://www.meituba.com/xinggan/list{}.html'
    # 要爬取几页
    depth = 5
    for i in range(81, 81+depth):
        u = url.format(i) 
        html = getHtml(u)
        getImage(html, result)
    #print(result)
    
    for i in result:
        a = requests.get(i)
        with open(r'D:\pythonproject\自己的小项目或自己找的小项目\妹子图\{}.jpg'.format(num), 'wb') as f:
            f.write(a.content)
            num += 1

if __name__ == '__main__':
    main() 

使用到的第三方库:

在这里插入图片描述
PS:代码运行需要修改图片保存的地址,还需要自己的电脑上安装了相应的库
PS:小白第一次写文章,代码还比较垃圾,我也就想记录一下自己的爬虫,看着自己进步吧!一起加油哦,陌生人!

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值