python爬虫实战(7)--获取it某家热榜

1. 需要的类库

import requests
from bs4 import BeautifulSoup
import pandas as pd

2. 请求榜单

def fetch_ranking_data():
    url = "https://m.xxx.com/rankm/" #某家
    response = requests.get(url)

    if response.status_code == 200:
        return response.content
    else:
        print(f"Error fetching data. Status code: {response.status_code}")
        return None

3. 解析响应

def parse_html(html_content):
    soup = BeautifulSoup(html_content, 'html.parser')
    rank_items = soup.find_all('div', class_='placeholder one-img-plc')

    data = []
    for rank_item in rank_items:
        rank_num = rank_item.select_one('.rank-num').text
        title = rank_item.select_one('.plc-title').text
        url = rank_item.select_one('a')['href']

        data.append({
            'Rank': rank_num,
            'Title': title,
            'URL': url
        })

    return data

4.输出文件

def create_excel(data):
    df = pd.DataFrame(data)
    df.to_excel('ranking_data.xlsx', index=False)
    print("Excel file created successfully.")

5. 成果展示

![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/a8466ce70031413592bf778437bd4ca3.png

  • 9
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值