京东商品爬虫实战笔记

免责声明:本文所记录的技术手段及实现过程,仅作为爬虫技术学习使用,不对任何人完全或部分地依据本文的全部或部分内容从事的任何事情和因其任何作为或不作为造成的后果承担任何责任。

爬取需求:爬取京东商城根据关键字搜索商品,商品的名称、价格、累计评价信息;

爬取工具:chrome浏览器、pycharm

Python库:selenium

01

网站结构分析

打开京东首页,输入“手机”进行搜索:

点击相关商品详情页,所有信息均可以在详情页找到。

02

创建Selenium爬虫

打开Pycharm开发工具,新建selenium_jd.py,编写如下代码:

import time

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.chrome.options import Options
from pyquery import PyQuery

options = Options();
# 去掉自动化控制提示信息
options.add_experimental_option("excludeSwitches", ['enable-automation']);

user_agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
options.add_argument('--user-agent=%s' % user_agent)


# 去掉自动化控制标识
browser = webdriver.Chrome('C:\chromedriver.exe', options=options)
browser.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
    "source": """
    Object.defineProperty(navigator, 'webdriver', {
      get: () => undefined
    })
  """
})

jd_url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BA&enc=utf-8&wq=%E6%89%8B%E6%9C%BA&pvid=eb248c3d491144a99d93c073ef663455'

# 主要页面
def start_page(page):
    # 所有详情页url
    detail_url_list = []
    # 当前页为第一页
    current_page = 0
    while current_page < page:
        if (current_page == 0):
            browser.get(jd_url)
        else:
            pass

        # 设置最大等待时间
        wait = WebDriverWait(browser, 30)
        browser.maximize_window()

        current_page = current_page + 1


start_page(1)

运行代码,能够成功打开京东商品搜索页。

03

爬取商品详情页

通过分析页面,找到商品详情页的url信息:

编写代码,爬取商品详情页url:

# 商品详情解析
def get_detail_url(html_source):
    dom = PyQuery(html_source)
    items = dom('.m-list .ml-wrap .gl-item').items()
    detail_urls = []
    for item in items:
        detail_urls.append(item.find('.p-name.p-name-type-2 a').attr('href'))
    return detail_urls

调用商品详情解析方法,运行成功!

04

翻页处理

页面通过下拉框缓慢下拉,才会延时加载下面部分的信息,所以要控制滚动条缓慢下拉,再爬取商品详情页,再进行分页处理:

# 缓慢拉动滚动条拖到底部
window_height = browser.execute_script('return document.body.scrollHeight')
curent_height = 0
for i in range(curent_height, window_height, 100):
    browser.execute_script('window.scrollTo(0, {})'.format(i))
    time.sleep(0.5)# 存储当前爬取的页面详情url
detail_url_list.extend(get_detail_url(browser.page_source))

继续分析分页信息,通过点击下一页实现跳转:

为了方便处理,直接使用鼠标点击实现跳转:

element = browser.find_element_by_class_name('pn-next')

browser.execute_script("arguments[0].click();", element)

运行代码,成功翻页!

05

商品详情页处理

爬取完所有的详情页面url,则可以打开详情页url进行详细信息爬取:

# 爬取详情页面信息
def get_detail_info(html_source):
    dom = PyQuery(html_source)
    detail_dom = dom('.w .itemInfo-wrap')
    detail_info = {
        'name': detail_dom.find('.sku-name').text(),
        'price': detail_dom.find('.summary.summary-first').find('.summary-price-wrap').find('.dd').find('.p-price').text(),
        'comment_count': detail_dom.find('.summary.summary-first').find('.summary-price-wrap').find('.comment-count').text(),
    }
    print(detail_info)
    return detail_info

遍历所有前面爬取到的商品详情页url列表,逐个爬取商品详情:

# 打开详情页面
def start_detail_page(detail_url_list):
    detail_info_list = []
    for detail_url in detail_url_list:
        browser.get(detail_url)
        time.sleep(1)
        detail_info_list.append(get_detail_info(browser.page_source))
    print(detail_info_list)

运行代码,结果如下:

爬取京东商品信息成功!

所有示例代码均可通过微信公众号回复关键字【pachong23】下载!

 

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值