京东手机图片爬取

环境:Python3.6 + BeautfulSoup4
爬取目标:京东手机图片https://list.jd.com/list.html?cat=9987,653,655

思路

首先打开目标网页https://list.jd.com/list.html?cat=9987,653,655 查看网页获取发送的GET请求的特征,对比第二页的URL https://list.jd.com/list.html?cat=9987,653,655&page=2&sort=sort_rank_asc&trans=1&JL=6_0_0&ms=6#J_main

https://list.jd.com/list.html?cat=9987,653,655 

https://list.jd.com/list.html?cat=9987,653,655&page=2&sort=sort_rank_asc&trans=1&JL=6_0_0&ms=6#J_main

通过page来区分检索的是哪一页,尝试在URL地址栏输入

https://list.jd.com/list.html?cat=9987,653,655 &page=3

发现可以打开网页。那就OK了

第二步编写一个函数用来处理每个页面,这里需要对爬虫进行简单的伪装,添加uesr-agent的头部属性来假装一个浏览器。再通过beautifulsoup来进行过滤。

比较展示列表中的图片width和height都是220,以此为过滤条件

imglist = soup.find_all("img",width=220,height=220)

有的img标签含有src属性但是有的img标签没有,通过正则表达式获取图片的url

src = re.compile('//img.+\.jpg').search(img.__str__())
imgurl = "https:" + src.group()

最后通过urlretrieve保存图片到本地

request.urlretrieve(imgurl,filename=imagename)

代码

import re
from bs4 import BeautifulSoup
from urllib import request
from urllib import error

def craw(url,page):
    # print("====="+str(page))
    req = request.Request(url)
    # 需要进行浏览器伪装
    req.add_header('user-agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36')
    html = request.urlopen(req).read().decode("utf8")
    soup = BeautifulSoup(html,"html5lib")
    # 过滤信息
    imglist = soup.find_all("img",width=220,height=220)
    # print(imglist)
    x=1
    for img in imglist:
        # print(str(page)+str(x))
        # print(img)
        src = re.compile('//img.+\.jpg').search(img.__str__())
        if src == None:
            continue
        imgurl = "https:" + src.group()
        # 保存到D盘
        imagename = "D:/img/" + str(page) + str(x) + ".jpg"
        try:
            # 下载图片到指定的路径并重命名
            request.urlretrieve(imgurl,filename=imagename)
        except error.URLError as e:
            print(e.reason)
        x+=1



def test():
    for i in range(1,6):#前五个页面
        url = "https://list.jd.com/list.html?cat=9987,653,655&page=" + str(i)
        craw(url,i)

if __name__ == "__main__":
    test()
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
为了京东手机图片并保存,您可以按照以下步骤进行: 1. 打开京东手机分类页面,例如 https://list.jd.com/list.html?cat=9987,653,655 2. 打开浏览器的开发者工具,找到手机列表的 HTML 元素,分析其结构和属性,获到每个手机的链接地址 3. 访问每个手机的链接地址,分析 HTML 元素,获手机图片的链接地址 4. 使用 Python 的 requests 库访问图片链接地址,获图片二进制数据 5. 将图片二进制数据保存到本地文件中,使用 Python 的 open() 和 write() 方法即可完成 以下是一个简单的 Python 程序示例,实现了上述步骤: ```python import requests from bs4 import BeautifulSoup import os # 设置请求头,模拟浏览器访问 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 访问京东手机分类页面 url = "https://list.jd.com/list.html?cat=9987,653,655" r = requests.get(url, headers=headers) # 解析页面 HTML,获每个手机的链接地址 soup = BeautifulSoup(r.text, 'html.parser') items = soup.find_all('div', class_='p-name') links = [] for item in items: link = item.find('a')['href'] links.append(link) # 遍历每个手机的链接地址,获手机图片并保存 for link in links: r = requests.get(link, headers=headers) soup = BeautifulSoup(r.text, 'html.parser') imgs = soup.find_all('img', class_='img-hover') for img in imgs: img_url = img['src'] img_data = requests.get(img_url, headers=headers).content # 获图片文件名 img_name = os.path.basename(img_url) # 保存图片到本地 with open(img_name, 'wb') as f: f.write(img_data) print(f"保存图片 {img_name} 成功!") ``` 注意,这个示例只是一个简单的虫程序,如果你需要大量的数据,或者需要频繁地访问同一个网站,就需要考虑一些反虫策略,例如限制速度、使用代理 IP、使用随机 User-Agent 等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值