Python爬虫,根据搜索关键字爬取京东商品信息

本文介绍了如何使用Python爬虫根据商品ID或搜索关键字抓取京东上的商品信息,包括价格等数据。作者在已有编程基础上,通过学习实现了collectSingle和collectData两个方法,分别用于单个商品ID和关键字的爬取。虽然没有使用爬虫框架,但通过requests库和HTML解析,作者在实践中深化了对HTTP协议和网页调试的理解。
摘要由CSDN通过智能技术生成

因为有在双十一配主机的计划,所有就产生了采集京东上指定商品信息(主要是价格)的想法。花闲余时间简单学习了下Python,参考了一些其他人的爬虫代码,最终完成一个比较简单的Python爬虫。可以根据商品ID或者搜索关键字爬取商品信息。

主要代码

import requests
from lxml.html import etree
import csv
import time
import datetime

def getHeader(referer):
    headers = {
   
        'authority': 'search.jd.com',
        'accept': '*/*',
        'method': 'GET',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36',
        'x-requested-with': 'XMLHttpRequest',
        'sec-fetch-site': 'same-origin',
        'sec-fetch-mode': 'cors',
        'sec-fetch-dest': 'empty',
        'referer': referer,
        'accept-language': 'zh-CN,zh;q=0.9',
    }
    return headers


def collectData(url,keyword):
    headers = getHeader(url)

    response = requests.get(url, headers=headers)  # 获取数据
    res_html = etree.HTML(response.text)  # 解析数据

    total_page = res_html.xpath('.//span[@class="fp-text"]/i/text()')[0].strip()

    for i in range(1, int(total_page)*2+
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值