淘宝页面商品信息的抓取

概述

使用selenium登录淘宝并抓取关键字"iPad"对应页面的商品信息。

页面的抓取使用requests应该也能做到,这次的话使用selenium获取每一页的信息,然后用pyquery对页面信息进行处理。

环境

版本:python3.8

所需的关键库:selenium、pyquery

需要用到的软件:chromedriverchrome

登录淘宝

如果要用requests访问登录后的页面,则在请求头中加入cookies信息即可,cookies信息可以从浏览器控制台通过document.cookie获得。但使用selenium的话要更麻烦一些,因为如果要想selenium模拟的浏览器中加入cookie,得一条一条cookie加入,上图做个对比:

在这里插入图片描述

左下角的是一连串的cookies,等号左边是cookie的名称,等号右边是cookie的值;如果使用requests,则将这一连串的cookies加入到headers中即可。而右图中则是一条一条的cookie,每条cookie都有name、value、domain等几个字段,如果你使用selenium,则需要将一条cookie处理成{"domain": ".taobao.com", "expiry": 1635516014, "httpOnly": false, "name": "l", "path": "/", "secure": false, "value": "eBj61Tjejomnbu7SBOfanurza77OSIRYYuPzaNbMiOCPO_CB5UlPW61E8nY6C3Gch63JR3xIkQOzBeYBqQAonxvOvhLyCdMmn"}的形式,然后使用add_cookie()将其加入到浏览器对象中。

这里参考了两条博客:

selenium使用cookie实现免密登录

[selenium加载cookie报错问题:selenium.common.exceptions.InvalidCookieDomainException: Message: invalid cookie domain](https://www.cnblogs.com/deliaries/archive/2020/12/11/14121204.html)

根据博客一第一次访问淘宝搜索页面时可以先手动扫码登录,然后获取到页面的cookie,保存下来,后面就能通过这些cookies自动的爬取数据了。

代码如下:

"""
Created on Sun May  2 15:12:44 2021

@author: Team317
"""

from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
from urllib.parse import quote
import json
import time
from pyquery import PyQuery as pq
import sys
from random import randint,random

def get_cookie():
    #手动获取cookies
    browser = webdriver.Chrome()
    wait = WebDriverWait(browser, 10)
    # 先访问登录页面
    login_url = 'https://login.taobao.com/member/login.jhtml?redirectURL=http%3A%2F%2Fs.taobao.com%2Fsearch%3Fq%3DiPad&uuid=6b5f203675de0dfb1d09899a2572b80b'
    browser.get(login_url)
    # 得到登录页面的cookie
    cookies = browser.get_cookies()
    
    # 访问搜索页面
    KEYWORD = 'iPad'
    url = 'https://s.taobao.com/search?q={keyword}'.format(keyword = KEYWORD)
    # 手动登录成功后输入Y继续
    ok = input("Are you ok?[Y/N]")
    # 输入N时退出程序
    if ok != 'Y':
        browser.close()
        sys.exit()
        
    browser.get(url)
    # 获取搜索页面的cookie
    cookie = browser.get_cookies()
    for cook in cookie:
        cookies.append(cook)
        
    # 保存cookies信息
    with open("taobao_cookies.txt","w") as file:
        file.write(json.dumps(cookies))
        
    # # 关闭浏览器
    # browser.close()
    
    return browser, wait

在taobao_cookies.txt文件中保存了网页的每条cookie,如下图,

在这里插入图片描述

这是其中的三条,有了cookies,后面就更方便了。

商品搜索页面的访问

用selenium登录淘宝后通过控制底部的页面访问栏来跳转页面:
在这里插入图片描述

先向页面搜索框输入页面号,再模拟点击确定按钮,跳转到指定页面后即可抓取页面信息,代码如下:

    
def load_cookie():
    browser = webdriver.Edge()
    # 每次跳转请求页面的等待时间为20秒,超出20秒时产生超时异常
    wait = WebDriverWait(browser, 10)
    # 读取cookies
    with open("taobao_cookies.txt") as file:
        cookies = json.loads(file.read())
        
    # 首先访问登录页面
    login_url = 'https://login.taobao.com/member/login.jhtml?redirectURL=http%3A%2F%2Fs.taobao.com%2Fsearch%3Fq%3DiPad&uuid=6b5f203675de0dfb1d09899a2572b80b'
    browser.get(login_url)
    
    # 然后加载cookies
    for cook in cookies:
        try:
            browser.add_cookie(cook)
        except:
            # 打印被舍弃的cookie
            print(cook)
            print("*********************")
    return browser, wait
    
# 访问第index个页面
def index_page(browser, wait, page, keyword):
    
    print("正在爬取第{page}页".format(page = page))
    try:
        # 访问搜索页面
        url = 'https://s.taobao.com/search?q={keyword}'.format(keyword = keyword)
        time.sleep(random()*10 + 2)
        browser.get(url)
        if page > 1:
            input = wait.until(
                EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > input')))
            submit = wait.until(
                EC.element_to_be_clickable((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit')))
            time.sleep(random()*10 + 2)
            input.clear()
            time.sleep(random()*10 + 2)
            input.send_keys(page)
            time.sleep(random()*10 + 2)
            submit.click()
        time.sleep(random()*10 + 2)
        # 等待页面被加载出来
        wait.until(
            EC.text_to_be_present_in_element((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > ul > li.item.active > span'),str(page)))
        wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-itemlist > div > div > div')))
        time.sleep(random()*10 + 4)
        # 获取页面信息
        get_products(browser)
        print("第{page}页抓取完成".format(page=page))
    except TimeoutException:
        # 出现超时时不再继续,结束程序
        print('超时')
        browser.close()
        sys.exit()

def get_products(browser):
    html = browser.page_source
    doc = pq(html)
    items = doc('#mainsrp-itemlist > div > div > div:nth-child(1) > div').items()
    
    with open("products_info.txt", 'a+') as file:
        for item in items:
            product = {
                'image':item.find('.pic .img').attr('data-src'),
                'price':item.find('price').text(),
                'deal':item.find('.deal-cnt').text(),
                'title':item.find('.title').text(),
                'shop':item.find('.shop').text(),
                'location':item.find('.location').text()
            }
            # print(product)
            # print("************")
            info = json.dumps(product) + '\n'
            file.write(info)
    
        

if __name__ == '__main__':
    # 首次登录标志
    is_first = True
    if is_first == True:
        # 首次登录时,手动扫码淘宝,获取cookies
        browser,wait = get_cookie()
    else:
        # 如果之前登录过,则从文件中加载cookies
        browser,wait = load_cookie()
    
    # 之后自动化的抓取页面信息
    for i in range(1,10):
        index_page(browser, wait, i, 'iPad')
        
        # 等待几秒再访问,以防被察觉
        time.sleep(random()*10 + 10)
    
    browser.close()

应对反爬虫的一些尝试

在实验过程中,我的反复尝试被淘宝发现了,然后就弹出了下面这个验证框:

在这里插入图片描述
关键是这个验证框是没法验证的,当你将滑块拖动到最右边之后依然停留在这个页面,可能是我的账号被记住了或者被封ip了,一段时间内不能再访问,使用代理进行访问会更安全一些。

为防止这一情况发生,我尝试着在每一次模拟操作之后等待一段时间再进行下一次操作,于是在代码中就多了很多的time.sleep()语句,并将等待的时间用random设置为随机数。遗憾的是,使用这样的方法依然会被发现。网站反爬虫的方式挺多的,我不清楚在这里触发网站的反爬虫机制的具体原因。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值