使用Java爬取steam游戏打折数据

理论原理

maven依赖 

    <!-- jsoup爬虫 -->
    <dependency>
       <groupId>org.jsoup</groupId>
       <artifactId>jsoup</artifactId>
       <version>1.15.4</version>
    </dependency>

代码实现

package org.example;


import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.io.IOException;

public class Main {
    public static void main(String[] args)  {
        data();
    }

    //记录中断页码
    static int currentPage=1;

    static void data(){
        int sum=1;
        while (true){
            try {
                getDataList();
                break;
            } catch (IOException e) {
                e.printStackTrace();
                System.out.println("data: request failed "+sum);
                sum++;
            }
        }
    }

    //获取steam所有页的游戏数据【436】
    static void getDataList() throws IOException {
        Document document = Jsoup.connect("https://store.steampowered.com/search?specials=1&ndl=1&page=" + currentPage)
                .userAgent("*")
                .timeout(30 * 1000)
                .get();
//        System.out.println("getDataList: \n"+document);
        Elements as = document.select("div.search_pagination_right a");
        int n= Integer.parseInt(as.get(as.size()-2).text());
        System.out.println("getDataList: total page is "+n);
        getData(document);
        while (currentPage < n){
            currentPage++;
            document = Jsoup.connect("https://store.steampowered.com/search?specials=1&ndl=1&page=" + currentPage)
                    .userAgent("*")
                    .timeout(30 * 1000)
                    .get();
            getData(document);
        }
    }

    private static void getData(Document document) {
        Elements as = document.select("a.search_result_row.ds_collapse_flag");
        for (Element a : as) {
            String name = a.select("span.title").text();
            String img = a.select("div.col.search_capsule img").attr("src");
            String time = a.select("div.search_released.responsive_secondrow").text();
            String discount = a.select("div.discount_pct").text();
            String original = a.select("div.discount_original_price").text();
            String current = a.select("div.discount_final_price").text();

            System.out.println("----------------------------------------------------------");
            System.out.println("getData: name -> "+name);
            System.out.println("getData: img -> "+img);
            System.out.println("getData: time -> "+time);
            System.out.println("getData: discount -> "+discount);
            System.out.println("getData: original -> "+original);
            System.out.println("getData: current -> "+current);

        }
    }
}

运行结果

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫可以用来抓取网站上的数据,包括Steam市场的信息。要爬取Steam市场,你需要使用像BeautifulSoup、Scrapy这样的库来解析HTML和执行网络请求。以下是一个简单的步骤概述: 1. **安装必要的库**: 首先确保你已经安装了`requests`(用于发送HTTP请求)、`lxml`(或`html.parser`)(解析HTML)、以及可能的`Scrapy`(如果用于更复杂的爬虫项目)。 ```bash pip install requests lxml # 如果使用Scrapy pip install scrapy ``` 2. **获取网页源代码**: 使用`requests.get()`获取Steam市场的页面HTML。 ```python import requests url = 'https://store.steampowered.com/search/?sort_by=global_sales&l=english' response = requests.get(url) html_content = response.text ``` 3. **解析HTML**: 使用BeautifulSoup或其他库解析HTML内容,提取你需要的数据,如商品名称、价格、评价等。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, 'lxml') items = soup.find_all('div', class_='search_result_item') # 查找商品列表元素 ``` 4. **数据处理**: 为每个商品创建一个字典或对象,存储相关信息,并存储到CSV、JSON或数据库中。 ```python def extract_data(item): name = item.find('h3').text price = item.find('.price').text # ...其他字段提取 return {'name': name, 'price': price} data_list = [extract_data(item) for item in items] ``` 5. **遵守网站规则**: 确保你的爬虫遵守Steam使用政策,通常这意味着不频繁访问同一页面,避免使用代理IP,以及可能的用户代理设置。 6. **错误处理**: 考虑处理可能出现的网络错误、解析错误,以及Steam可能实施的反爬策略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值