selenium学习爬取京东网页数据

程序:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
import time
from pyquery import PyQuery as pq
browser = webdriver.Chrome(executable_path="C:/Users/25104/AppData/Local/Google/Chrome/Application/chromedriver.exe")
wait = WebDriverWait(browser, 10)

def get_produces(html):
    doc = pq(html)
    items = doc('#J_goodsList > ul > li').items()
    for item in items:
         product = {
             'price': item.find('.p-price').text(),
             'title': item.find('.p-name').text(),
             'shop': item.find('.p-shop').text(),
         }
         print(product)

def change_page(page_num):
    page_input = wait.until(
        EC.presence_of_element_located((By.XPATH, '//*[@id="J_bottomPage"]/span[2]/input'))
    )
    page_input.send_keys('0')
    time.sleep(1)#写两遍是因为第一次输入会被拉回网页中央
    page_input = wait.until(
        EC.presence_of_element_located((By.XPATH, '//*[@id="J_bottomPage"]/span[2]/input'))
    )
    page_input.clear()
    page_input.send_keys(str(page_num))
    page_confirm_button = wait.until(
        EC.presence_of_element_located((By.XPATH, '//*[@id="J_bottomPage"]/span[2]/a'))
    )
    page_confirm_button.click()
    return browser.page_source

def get_page_source(keyword='switch',maxnum=3):
    url='https://search.jd.com/Search'
    browser.get(url)
    search_input=wait.until(
        EC.presence_of_element_located((By.ID,'key'))
    )
    search_input.send_keys(keyword)
    xpath = "//div[@class='form'][1]/button[1]"
    button = wait.until(
        EC.presence_of_element_located((By.XPATH,xpath))
    )
    button.click()
    for page_num in range(1,maxnum):
        get_produces(change_page(page_num))
    #browser.close()

def main():
    get_page_source('switch')

main()

在这里插入图片描述
主要关键是通过
EC.presence_of_element_located()
这个方法来确定元素的位置,一般直接通过谷歌浏览器的审查元素,有copy xpath这个选项,通过By.XPATH可以定位到想要的元素在通过Pyquery整合信息方面,通过css选择器来把想要的关键信息提取出来
在这里插入图片描述
这样的结构对应的就是
items = doc(’#J_goodsList > ul > li’).items()
遍历items,再配合上.find方法即可

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Selenium是一个用于自动化浏览器操作的工具,可以用来爬取京东商品信息。在使用Selenium爬取京东手机信息时,可以按照以下步骤进行操作: 1. 首先,使用Selenium打开京东网站。可以使用`webdriver.Chrome()`来打开Chrome浏览器,并使用`browser.get('https://www.jd.com/')`来打开京东网站。 2. 定位输入框和搜索按钮。可以使用`find_element_by_css_selector`方法来定位输入框和搜索按钮的元素,并使用`send_keys`方法输入关键字,最后使用`click`方法点击搜索按钮。 3. 判断是否有弹窗。有时候京东网站会弹出覆盖页面的弹窗,无法使用Selenium进行页面元素获取和点击。可以使用一个函数来判断弹窗是否存在,如果存在则关闭弹窗。 4. 获取商品分类列表。可以通过分析网页源代码,找到三级分类商品的超链接,通过href进入商品列表。可以使用XPath来定位超链接的元素,并使用`execute_script`方法打开新的窗口,然后切换到新窗口进行操作。 5. 进入商品列表页面。在商品列表页面中,可以使用相应的方法来获取商品的详细信息,如商品名称、价格、评价等。 以上是使用Selenium爬取京东手机信息的大致步骤,具体的代码实现可以参考引用\[1\]和引用\[2\]中的示例代码。希望对你有帮助! #### 引用[.reference_title] - *1* [一篇就够!selenium教你爬取京东商品。](https://blog.csdn.net/qq_47828130/article/details/119735165)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [python-selenium自动爬取京东手机端全部类别数据----“从祖爬到孙”](https://blog.csdn.net/qq_43666365/article/details/120577139)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值