Python爬虫—爬取京东商品信息(自动登录,换关键词,换页)


前言

最近需要些简单的商品数据信息,听说淘宝反爬虫反的厉害,自己Python学习花的时间少,人菜的抠脚,就打起了京东的注意

这gif去重后晃得我眼痛
在这里插入图片描述


一、需要的Python库安装

1.设置默认pip默认安装路径

安装前注意pip默认安装目录设置
查看位置为python目录下的Lib\site.py文件
设置参数(因为需要转义 写成r‘Path和单反斜的形式’ 或 ‘Path和双反斜的形式’)
USER_SITE=r‘D:\Python\Lib\site-packages’
USER_BASE =r‘D:\Python\Scripts’
在这里插入图片描述
↑site.py文件示意↑

如果你不想设置保存位置参数
①手动跳转到你的python安装目录下再使用pip命令安装(不然要么在c盘给你安装整个python,要么迫害你的c盘剩余容量)
②使用pip命令时使用 --target=Path 参数指定安装目录

pip安装示意图
↑pip安装示意图↑

2.下载浏览器驱动(以chrome为例)

打开谷歌浏览器访问下面的地址,查看谷歌浏览器版本
chrome://version/
在这里插入图片描述
↑查看chrome版本示意图↑
驱动下载链接
链接: 谷歌浏览器驱动下载.
下载相应版本的驱动(或者最接近的版本)

将终端放在chrome目录下(放其他地方注意改环境变量就行)
在这里插入图片描述
↑chrome目录↑
在这里插入图片描述
↑Win10设置驱动环境变量↑

二、使用步骤(代码以函数为单位分开展示)

1.引入库

代码如下:

import time
from urllib import request
import cv2
from selenium import webdriver
# from random import random
import pyautogui
from numpy import random
from lxml import etree

2.设置关键词和浏览器设置

代码如下:

#设置搜索关键词(根据需要修改)
keyword=['显卡','cpu','主板','内存','硬盘','散热器','机箱','外设','显示器','整机','笔记本电脑','平板','手机']

#对浏览器驱动进行设置
option=webdriver.ChromeOptions()
# option.add_argument('headless') #隐藏浏览器窗口(因为登录滑块需要使用鼠标,只能改为最小化)
option.add_argument("disable-blink-features=AutomationControlled") #去掉chrome的webdriver痕迹
browser = webdriver.Chrome(options=option)

驱动设置为不隐藏窗口;去除webdriver信息。


3.定义获取密码函数

代码如下:

#获取密码函数
def getLoginText():
    f=open('D:\\PyCode\\txt\\JDLogin.txt', 'r', encoding='utf-8')
    temp = f.readlines()
    doc=[]
    #去除元素中的换行转义
    for t in temp:
        t=t.strip('\n')
        doc.append(t)
    return doc

文件第一行是用户名,第二行是密码(没有任何前后缀。
直接在登录代码中明文定义账号密码不太好,容易泄露


4.定义获取图片信息,返回最佳匹配位置函数

代码如下:

#获取图片信息,返回最佳匹配位置
def findPic(target="img1.jpg", template="img2.png"):
    # 读取图片
    target_rgb = cv2.imread(target)
    # 图片灰度化
    target_gray = cv2.cvtColor(target_rgb, cv2.COLOR_BGR2GRAY)
    # 读取模块图片
    template_rgb = cv2.imread(template, 0)
    # 匹配模块位置
    res = cv2.matchTemplate(target_gray, template_rgb, cv2.TM_CCOEFF_NORMED)
    # 获取最佳匹配位置
    value = cv2.minMaxLoc(res)
    # 返回最佳X坐标
    return value[2][0]

5.定义滑动函数

代码如下:

#验证码滑动
def LoginSlide():
    #获取滑块图像
    target = browser.find_element_by_xpath('//div[@class="JDJRV-bigimg"]/img')
    template = browser.find_element_by_xpath('//div[@class="JDJRV-smallimg"]/img')
    # 获取模块的url路径
    src1 = target.get_attribute("src")
    src2 = template.get_attribute("src")
    # 下载图片(参数二可以用 filename=‘想存放的目录位置+文件名’ 设置图片保存位置,只设置文件名默认保存在和代码统一目录下)
    request.urlretrieve(src1,"img1.jpg")
    request.urlretrieve(src2,"img2.png")
    x = findPic()
    w1 = cv2.imread('img1.jpg').shape[1]
    w2 = target.size['width']
    x = x / w1 * w2
    # 按钮坐标(可以打开浏览器自己量一下,这里是1080p下大概坐标)
    offset_x,offset_y = 1169,484
    # pyautogui库操作鼠标指针
    pyautogui.moveTo(offset_x,offset_y,duration=0.1 + random.uniform(0,0.1 + random.randint(1,100) / 100))
    pyautogui.mouseDown()
    offset_y += random.randint(9,19)
    pyautogui.moveTo(offset_x + int(x * random.randint(15,25) / 20),offset_y,duration=0.28)
    offset_y += random.randint(-9,0)
    pyautogui.moveTo(offset_x + int(x * random.randint(17,23) / 20),offset_y,
                     duration=random.randint(20,31) / 100)
    offset_y += random.randint(0,8)
    pyautogui.moveTo(offset_x + int(x * random.randint(19,21) / 20),offset_y,
                     duration=random.randint(20,40) / 100)
    offset_y += random.randint(-3,3)
    pyautogui.moveTo(x + offset_x + random.randint(-3,3),offset_y,duration=0.5 + random.randint(-10,10) / 100)
    offset_y += random.randint(-2,2)
    pyautogui.moveTo(x + offset_x + random.randint(-2,2),offset_y,duration=0.5 + random.randint(-3,3) / 100)
    pyautogui.mouseUp()
    time.sleep(random.randint(2,5))

6.定义实现登录函数

代码如下:

#实现登录
def startLogin():
    time.sleep(random.randint(2,5))
    browser.maximize_window()
    #点击账户登录
    login=browser.find_element_by_xpath('//div[@class="login-tab login-tab-r"]/a')
  • 11
    点赞
  • 117
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的Python爬虫程序,用于爬取京东商品的数据。 首先,我们需要导入相关的库,包括requests、BeautifulSoup和pandas。 ```python import requests from bs4 import BeautifulSoup import pandas as pd ``` 然后,我们需要定义一个函数,用于获取商品页面的HTML代码。 ```python def get_html(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} try: r = requests.get(url, headers=headers) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "" ``` 接下来,我们需要定义一个函数,用于解析商品页面的HTML代码,并提取所需的数据。 ```python def parse_html(html): soup = BeautifulSoup(html, 'html.parser') goods_list = soup.find_all('li', {'class': 'gl-item'}) data = [] for goods in goods_list: title = goods.find('div', {'class': 'p-name'}).find('a').text.strip() price = goods.find('div', {'class': 'p-price'}).find('strong').text.strip() data.append({'title': title, 'price': price}) return data ``` 最后,我们需要定义一个函数,用于将数据保存到CSV文件中。 ```python def save_to_csv(data, filename): df = pd.DataFrame(data) df.to_csv(filename, index=False) ``` 现在,我们可以编写主程序,用于爬取京东商品数据。 ```python if __name__ == '__main__': url = 'https://search.jd.com/Search?keyword=python' html = get_html(url) data = parse_html(html) save_to_csv(data, 'jd_goods.csv') ``` 在程序运行后,我们将获得一个名为“jd_goods.csv”的CSV文件,其中包含所爬取京东商品数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值