煎蛋网图片爬虫

最近在看小甲鱼的爬虫视频,试着自己写了一下:

from urllib import request
import os
import re
from urllib.request import urlretrieve
#import Requests


def get_picaddress(html,fold,i):
    img_list = re.findall(r'src="(//.*?\.(?:jpg|png))"',html)
    count = 0
    for ad in img_list:
#        print(ad)
        address = "http:"+ad
#        print(address)
        picname = str(i)+"_"+str(count)+"."+address.split(".")[-1]
#        print(picname)
        urlretrieve(address,fold+"/"+picname)
        count+=1
        
def get_html(url):
    headers ={}
    headers["User-Agent"]="Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36"
    res = request.Request(url,headers=headers)
    response = request.urlopen(res)
    html = response.read().decode("utf-8")
    return html
    
def downloadpic(fold="picfold",page=10):
    if os.path.exists(fold):
        os.removedirs(fold)
    os.makedirs(fold,exist_ok=True)
    url = "http://jandan.net/ooxx"
    regex = re.compile(r'href="(.*?)" class="previous-comment-page"')
    for i in range(10):
        if i ==0:
            pass
        else:
            html = get_html(url)
            preurl = regex.findall(html)[0]
#            print(preurl)
            url = "http:"+preurl
        html = get_html(url)
        get_picaddress(html,fold,i)
              
if __name__ == "__main__":
    downloadpic()

最后得到了很多漂亮小姐姐的图片。

由此记录。

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值