使用selenium爬取某东的手机商品信息

程序完整代码

from selenium import webdriver   # 自动化爬取工具库
import time    # 让程序休眠一段时间的库
from lxml import etree   # lxml解析库
import mysql.connector   # Python和数据库连接库
import random  # 生成随机数的库
from typing import NoReturn, Tuple, List  # 类型标记库


class JD_example():
    """爬取某东的类"""

    def __init__(self, table_name: str) -> NoReturn:
        """初始化
        table_name:在MySQL中要创建并用来存储爬取数据的表的名称
        """
        self.browser = webdriver.Chrome()   # 初始化一个浏览器对象
        self.browser.get('https://www.jd.com/')   # 打开网址
        self.table_name = table_name   # 实例属性,MySQL中的表名
        self.start_id = 1    # 实例属性,插入数据库中数据的起始ID
        self.conn = mysql.connector.connect(  # 构建和MySQL的连接
            host='localhost',
            user='root',
            passwd='123456',
            port=3307,
            charset='utf8',
            database='reptile',
        )
        self.mycursor = self.conn.cursor()   # 构建油标

    def append_to_database(self) -> NoReturn:
        """将数据新加到表中"""
        self.start_id = self.get_DBcount() + 1

    def get_DBcount(self) -> int:
        """获取表中的数据的条数"""
        self.mycursor.execute("select count(*) from {};".format(self.table_name))
        result = self.mycursor.fetchone()[0]
        return result

    def set_product(self, keyword: str) -> NoReturn:
        """输入要搜索的商品的名称并点击搜索按钮
        keyword:要搜索的商品的名称
        """
        self.browser.implicitly_wait(5)   # 设置隐式等待的时间
        # 找到搜索框并输入商品名称
        self.browser.find_element_by_css_selector('#key').send_keys(keyword)
        time.sleep(random.choice([1, 1.4, 1.5, 2]))  # 休眠一段随机时间
        # 找到搜索按钮并点击
        self.browser.find_element_by_css_selector('.button').click()
        self.browser.maximize_window()  # 窗口最大化

    def clear_search_box(self) -> NoReturn:
        """清空搜索框中的内容"""
        self.browser.find_element_by_css_selector('#key').clear()
        time.sleep(random.random())

    def drop_down(self) -> NoReturn:
        """向下滑动页面"""
        for x in range(0, 11):  # 向下滑动一段随机距离,重复11次
            time.sleep(2)
            js = str('window.scrollBy(0,{})'.format(x * random.randint(70, 95)))
            self.browser.execute_script(js)
        # 下滑至下一页按钮出现在页面的最下方
        self.browser.execute_script("document.querySelector('a.pn-next').scrollIntoView(false)")
        time.sleep(random.randint(1, 3))

    def parse_data(self) -> NoReturn:
        """获取页面数据"""
        html = self.browser.page_source  # 获取页面源码
        e = etree.HTML(html)  # 初始化xpath
        li_list = e.xpath('//*[@id="J_goodsList"]/ul/li')  # 选取目标li标签,生成一个li标签列表
        # 每一个li标签对应一个商品,标签中包含商品的价格,名称,评价等信息,下面就是遍历每一个li标签
        # 获取其中的商品信息
        res = []
        for li in li_list:
            try:
                price = float(''.join(li.xpath('./div/div[3]/strong/i/text()')).strip().replace(' ', ''))
                name = li.xpath('string(./div/div[contains(@class,"name")]/a/em)').strip().replace('\n', '')
                evaluate = li.xpath('string(./div/div[contains(@class,"commit")]/strong)').strip().replace('\n', '')
                tem = tuple((self.start_id, price, name, evaluate))
                res.append(tem)
                print(self.start_id, price, name, evaluate, sep='|')
                self.start_id += 1
            except:
                continue
        return tuple(res)

    def click_next_page(self) -> NoReturn:
        """点击下一页"""
        self.browser.find_element_by_xpath('//a[@class="pn-next"]').click()

    def create_table(self) -> NoReturn:
        """在mysql中创建一个名为输入的表名的表"""
        self.mycursor.execute("create table if not exists {}(\
                               ID int ,\
                               price decimal(10, 2),\
                               product_name varchar(200),\
                               evaluate varchar(20),\
                               primary key (ID)\
                               ) ENGINE=INNODB DEFAULT CHARSET='utf8mb4' COLLATE='utf8mb4_unicode_ci'".format(self.table_name)
                              )

    def insert_into_mysql(self, goods_tuple: Tuple[Tuple]) -> NoReturn:
        """将数据插入到表中
        goods_tuple:一个元组,元组的每一个元素也是元组,其中包含一个商品的id,价格,评价数量
        """
        sql_insert = "insert into {} values (%s, %s, %s, %s)".format(self.table_name)
        self.mycursor.executemany(sql_insert, goods_tuple)
        self.conn.commit()

    def start(self, goods_lists: List[str], page_numbers: int) -> NoReturn:
        """开始爬取
        goods_lists:要爬取的商品的列表
        page_numbers:每个商品要爬取的页数
        """
        self.create_table()
        for good in goods_lists:
            self.set_product(good)
            self.append_to_database()
            for i in range(0, page_numbers):
                self.drop_down()
                time.sleep(5)
                goods_tuple = self.parse_data()
                self.insert_into_mysql(goods_tuple)
                self.click_next_page()
            self.clear_search_box()
        self.mycursor.close()
        self.conn.close()
        self.browser.close()

if __name__ == '__main__':
    """程序入口"""
    jd1 = JD_example('jd0')
    goods_lists = ['华为手机', 'ViVo手机', 'OPPO手机']
    page_numbers = 1
    jd1.start(goods_lists, page_numbers)

准备工作

  • 安装好MySQL
  • 安装好selenium并且电脑中有Chrome浏览器,下载好与自己的Chrome浏览器版本对应的selenium驱动,将驱动(可执行文件)放在Python的安装目录下的Scripts目录下
  • 安装好程序中所需要的第三方库
  • 打开MySQL服务
  • 更改程序__init__方法中与数据库连接的配置,如用户名、密码、数据库名等信息
  • 仔细看代码中的注释,我将代码的作用都写在注释中
  • 如果代码有些看不懂,记得多查一查
  • 当然,如果你对程序很了解之后,你可以对它进行改造,爬取更多种的商品,每种商品的信息数量也可以加大,消耗的时间也会相应的增加
  • 写下这篇文章的时间是2021.03 ,某东没有针对selenium的检查,也没有搜索商品需要登录的要求,当你看到这篇文章的时候,我不敢保证某东没有针对爬虫做技术升级

运行效果

在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值