【爬虫】爬取某彩票网站的历史数据,并进行分析

RT。

闲来无事,随便找了一个玩彩票的网址,突发奇想把历史开奖结果拉取下来,并进行分析,看看有什么规律可以帮助到买彩票的。。

首先使用抓包工具charles, 分析这个历史开奖结果的请求方式。

看似就两个参数,但是实际上还有一个cookies,这个是最关键的,通过分析js代码,发现会有一个登陆接口去拿cookies,也就是sessionId,拿到后,放入这个历史数据接口的cookies就可以顺利拿到数据啦~~~

然而数据的返回并不是json格式的,是html,所以采用了大名鼎鼎的jsoup来直接分析,具体方式可以百度。

这里直接贴源码~

package com.wsm.lottery.JSSC10;

import com.alibaba.fastjson.JSON;
import com.wsm.lottery.dao.LotteryJsscDAO;
import com.wsm.lottery.dao.LotteryJsscDAOImpl;
import com.wsm.lottery.dao.LotteryJsscDO;
import com.wsm.lottery.utils.DateUtils;
import com.wsm.lottery.utils.HttpUtils;
import com.wsm.lottery.model.JSSC10;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.select.Elements;

import java.util.*;

public class JSSC10Crawler {

    private static final String JSSC10Url = "**************";

    private static final LotteryJsscDAO lotteryDao = new LotteryJsscDAOImpl();

    public static void main(String[] args) throws Exception{

        String today = DateUtils.getCurrentDate();

        System.out.println(today);

        Date date = new Date();
        int i=20;
        while(i>5){
            Date newDate = DateUtils.addDay(date,-i);
            i--;
            String todayNew = DateUti
### 回答1: Python爬虫可以很方便地爬取天气数据。以下是一个简单的示例,可以获取北京市最近7天的天气数据: ```python import requests from bs4 import BeautifulSoup url = 'http://www.weather.com.cn/weather/101010100.shtml' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.content, 'html.parser') weather_list = soup.select('.t .clearfix') for weather in weather_list: date = weather.select('.day')[0].text.strip() condition = weather.select('.wea')[0].text.strip() high_temp = weather.select('.tem .high')[0].text.strip() low_temp = weather.select('.tem .low')[0].text.strip() print(date, condition, high_temp, low_temp) ``` 解释一下代码: 1. 首先,我们需要找到天气数据的来源网站。这里我选择了中国天气网(http://www.weather.com.cn/)。 2. 我们使用 requests 库来向该网站发送 HTTP 请求,并使用 BeautifulSoup 库对返回的 HTML 页面进行解析。 3. 通过分析 HTML 页面,我们可以找到所需的天气数据在 class 为 “t clearfix” 的 div 元素下。我们使用 select 方法选择该元素,并遍历所有天气信息。 4. 对于每一个天气信息,我们可以从 HTML 中找到日期、天气状况、最高温度和最低温度等信息,并进行提取和打印。 以上代码只是一个简单的示例,实际爬取天气数据可能会涉及到更多的数据处理和异常处理。 ### 回答2: Python爬虫可以用来爬取天气数据,通过抓取天气网站上的信息,获取实时或历史天气数据,并进行进一步的分析和处理。 首先,我们需要了解要爬取的天气网站的结构和数据的位置。通常,天气网站会提供API接口或者发布天气数据的HTML页面。我们可以通过分析网页结构,确定需要爬取的数据在源代码中的位置。 接下来,我们可以使用Python中的第三方库,例如requests和BeautifulSoup来实现爬虫功能。使用requests库可以发送HTTP请求,获取网页源代码,而使用BeautifulSoup库可以方便地解析HTML页面,提取需要的数据。 如果网站提供API接口,我们可以直接使用requests库发送GET请求,获取到JSON格式的数据。然后,我们可以使用Python的json库对数据进行解析,并提取出所需的天气信息。 如果网站提供天气数据的HTML页面,我们可以使用requests库获取到页面的源代码,然后使用BeautifulSoup库解析HTML,提取出对应的天气数据。我们可以通过标签名称、CSS选择器或XPath来定位需要的数据。 在获取到天气数据之后,我们可以进一步处理和分析这些数据。例如,我们可以提取温度、湿度、风力等关键信息,并进行数据可视化、统计分析或者机器学习预测。Python中的matplotlib、pandas和scikit-learn等库可以帮助我们进行这些进一步的处理和分析。 总而言之,使用Python爬虫爬取天气数据可以帮助我们获取到所需的天气信息,并进行进一步的分析和应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值