爬虫实战-图虫网高清图片

动态爬取图虫网,保持图片到本地

#scrapy https://www.cnblogs.com/pantom0122/p/9540299.html
#https://blog.csdn.net/majiexiong/article/details/82108212


import requests
import json,os
import lxml
from lxml import etree

#起始网页 https://tuchong.com/explore/

header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',}

for i in range(1,20):
    url_temp='https://tuchong.com/rest/tags/%E8%87%AA%E7%84%B6/posts?page={}&count=20&order=weekly'.format(i)
    response = requests.get(url_temp,headers=header)
    html = json.loads(response.text)
    content_li = html['postList']
    for content in content_li:
        item={}
        item['title']=content['title']if len(content['title']) >0 else None
        item['view']=content['views']
        images_id=content['images']
        for img in images_id:
            #print(img)
            user_id = img['user_id']
            img_id = img['img_id']
            img_url = 'https://photo.tuchong.com/{}/f/{}.jpg'.format(user_id, img_id)
            print(img_url)


            if not os.path.exists('download'):
                os.mkdir('download')

            title = 'download/' +str(img_id)
            filename = img_url.split('/')[-1]
            response = requests.get(img_url)
               
            #保存图片名字有问题,不知道会不会重复
            with open(title+'.jpg', 'wb') as f:
                f.write(response.content)

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值