Python爬虫 商品信息

首先,我们需要确认爬取的网站地址。在本例中,我们要爬取的是京东电脑商品信息,因此我们需要找到京东网站的搜索页面地址:https://search.jd.com/Search?keyword=电脑&enc=utf-8

import requests

 

url = 'https://search.jd.com/Search?keyword=电脑&enc=utf-8'

response = requests.get(url)

html = response.text

接着,我们用 Python 代码发送 HTTP 请求,获取搜索页面的 HTML 内容。这里我们使用 requests 模块来发送请求:

import requests url = 'https://search.jd.com/Search?keyword=电脑&enc=utf-8' response = requests.get(url) html = response.text


然后,我们使用 Beautiful Soup 模块来解析 HTML 内容,提取我们需要的信息。我们可以通过浏览器的页面审查工具来确定需要提取的标签和类名(这里我只爬取了电脑名称,价格,和商品链接):

from bs4 import BeautifulSoup

 

soup = BeautifulSoup(html, 'html.parser')

items = soup.select('.gl-item')

 

for item in items:

    name = item.select('.p-name em')[0].text.strip()

    price = item.select('.p-price i')[0].text.strip()

    link = 'http:' + item.select('.p-img a')[0]['href']

 

    print('商品名称:', name)

    print('商品价格:', price)

    print('商品链接:', link)

    print('\n')


最后,我们就可以按照自己的需求来进行数据处理和存储。例如,我们可以将爬取到的商品信息保存到 Excel 或者数据库中,或者进行数据可视化分析。

# 存储数据

df = pd.DataFrame(data, columns=['名称', '价格', '链接'])

df.to_excel('jd_computer.xlsx', index=False)

最后完整代码 我是把数据存储在一个Excel文件里 

import requests

from bs4 import BeautifulSoup

import pandas as pd

 

# 参数配置

url = 'https://search.jd.com/Search?keyword=电脑&enc=utf-8'

headers = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'}

 

# 发送 HTTP 请求

response = requests.get(url, headers=headers)

html = response.text

 

# 解析 HTML 内容

soup = BeautifulSoup(html, 'html.parser')

items = soup.select('.gl-item')

 

data = []

for item in items:

    name = item.select('.p-name em')[0].text.strip()

    price = item.select('.p-price i')[0].text.strip()

    link = 'http:' + item.select('.p-img a')[0]['href']

 

    data.append([name, price, link])

 

# 存储数据

df = pd.DataFrame(data, columns=['名称', '价格', '链接'])

df.to_excel('jd_computer.xlsx', index=False)

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值