Python爬虫实战基础篇

 以下是一个示例程序,用于爬取京东电脑商品信息:首先,我们需要确认爬取的网站地址。在本例中,我们要爬取的是京东电脑商品信息,因此我们需要找到京东网站的搜索页面地址

https://search.jd.com/Search?keyword=电脑&enc=utf-8


接着,我们用 Python 代码发送 HTTP 请求,获取搜索页面的 HTML 内容。这里我们使用 requests 模块来发送请求:

import requests

url = 'https://search.jd.com/Search?keyword=电脑&enc=utf-8'

response = requests.get(url)

html = response.text

然后,我们使用 Beautiful Soup 模块来解析 HTML 内容,提取我们需要的信息。我们可以通过浏览器的页面审查工具来确定需要提取的标签和类名:

from bs4 import BeautifulSoup

soup = BeautifulSoup(html, 'html.parser')

items = soup.select('.gl-item')

for item in items:

    name = item.select('.p-name em')[0].text.strip()

    price = item.select('.p-price i')[0].text.strip()

    link = 'http:' + item.select('.p-img a')[0]['href']

    print('商品名称:', name)

    print('商品价格:', price)

    print('商品链接:', link)

    print('\n')

最后,我们就可以按照自己的需求来进行数据处理和存储。例如,我们可以将爬取到的商品信息保存到 Excel 或者数据库中,或者进行数据可视化分析。

import requests

from bs4 import BeautifulSoup

import pandas as pd

# 参数配置

url = 'https://search.jd.com/Search?keyword=电脑&enc=utf-8'

headers = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'}

# 发送 HTTP 请求

response = requests.get(url, headers=headers)

html = response.text

# 解析 HTML 内容

soup = BeautifulSoup(html, 'html.parser')

items = soup.select('.gl-item')

data = []

for item in items:

    name = item.select('.p-name em')[0].text.strip()

    price = item.select('.p-price i')[0].text.strip()

    link = 'http:' + item.select('.p-img a')[0]['href']

    data.append([name, price, link])

# 存储数据

df = pd.DataFrame(data, columns=['名称', '价格', '链接'])

df.to_excel('jd_computer.xlsx', index=False)

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值