爬虫练习

#爬取京东商品图片的小测试

访问的页面
在这里插入图片描述

图片链接的位置
在这里插入图片描述

# -*- coding = utf - 8 -*-
#@Time : 2020/7/16 14:54
#@Author : sunzy
#@File : jd.py

import re
import requests
import time
import os

dir = "jdtp"
if not os.path.exists(dir):
    os.mkdir(dir)

baseurl = "https://search.jd.com/Search?keyword=%E8%BF%9B%E5%8F%A3%E9%9B%B6%E9%A3%9F&enc=utf-8&wq=%E8%BF%9B%E5%8F%A3%E9%9B%B6%E9%A3%9F&pvid=ryxp9pui.nhltvu"

head = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36 Edg/83.0.478.61"
    }
response = requests.get(url=baseurl, headers = head)
#print(response.text)
html = response.text

findlinks = '<img width="220" height="220" data-img="\d" src="(.*?)".*?>'
#<img width="220" height="220" data-img="1" src="//img10.360buyimg.com/n7/jfs/t22093/305/286523587/498951/2ddddbdf/5b30b30dNd6c7eca0.jpg" data-lazy-img="done" source-data-lazy-img="">
urls = re.findall(findlinks, html)

for url in urls:
    time.sleep(1)
    file_name = url.split('/')[-1]
    res = requests.get("http:"+url,headers = head)
    with open(dir+'/'+file_name, "wb") as f:
        f.write(res.content)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值