Jsoup实现简单的爬虫

一、背景

项目上的实施人员需要把本省的各级区划录入我们的新系统,然而这项工作很繁琐,需要在国际统计局网站上查询区划信息,并且复制到Excel表格中,然后做进一步的数据处理。这会消耗大量的时间和人力,而且都是重复的操作。编程就是为了提高生产力和工作效率的,正好前几天在研究Java的爬虫,于是想,可以试着写一个爬虫把这数万个区划的信息都抓取下来吧,而且应该是很简单的爬虫。

二、技术

本次页面的爬取,我们使用Jsoup这个库。
Jsoup是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。总之,如果对HTML页面很了解的话,是可以很容易的用Jsoup来抓取页面的信息的。
代码中主要用了这几个方法:
  • Jsoup.connect(url).get(),这个方法返回一个document文档,用toString输出之后其实就是访问页面的源代码。
  • getElementsByClass(className)方法,Document的一个方法,如方法名所述,是根据class的名称获取元素列表。
  • getElementsByTag(tagName)方法,根据标签的名称获取相应的元素列表。
  • text()方法,Element的一个方法,用于获取元素内部的文本内容。

三、网页分析

爬取一个网站的信息,肯定是要了解一下需要爬取的网页的格式。看了看国家统计局的网站,页面很简洁很有规律。

查看一下源码,区划代码和区划名称的信息是在这个table里。

所以我们在爬取的时候,只需要按照class获取这些tr中的数据就好啦。这里要注意的一点是,市级的区划,其class为citytr,区(县)级的为countytr,街道(乡)级的为towntr,社区(村)级villagetr。所以在爬取的时候这里要“区别对待”。
因为除了社区级区划,每一个区划都会有下级区划。对于一个区划的下级区划页面,我们需要获取这个页面的地址,然后在新的页面中获取下级区划的信息。其实各级区划就是个树形结构,所以我们只要沿着节点遍历就可以了,在代码中的实现方式就是迭代。
获取下级区划页面链接的时候,我们要注意,如果遍历到市辖区的区划代码,这里是没有下级区划的,与社区级区划类似,所以这里要做一下判断。
我们还需要注意的一点就是,社区级区划的页面有三列信息的,多了一个城乡分类代码,所以这里也要做判断。

好啦,下面就是代码实现了。代码的关键处也会有与上文分析相对应的注释,确保代码清晰明了。

四、代码实现

我的代码分为三部分,第一部分是爬取页面的主方法,进行迭代爬取。第二部分是将爬取的区划信息输出到Excel里。第三部分是,我发现有的时候有些页面会访问失败,所以我把这些访问失败的链接在爬取结束后输出出来,以便于后续做补偿操作。当然,我们也可以再重新将这些链接的页面爬取一下,不过我是懒得改啦,先这样吧。
public class RegionSpider {
    private static List<JSONObject> regionList = new ArrayList<JSONObject>();//保存区划信息列表
    private static List<String> fileUrlList = new ArrayList<String>();//保存访问失败页面url
    private static int index = 1;//序号

    public static void main(String[] args) {
        String parentUrl = "http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2016/42.html";//根url地址
        getRegion(parentUrl);//第一步 区划查询
        createExcel(regionList);//第二步 输出到Excel
        for (String url : fileUrlList) {//第三步 输出失败链接
            System.out.println(url);
        }
    }

    /**
     * 区划抓取主方法
     * @param parentUrl
     */
    public static void getRegion(String parentUrl) {
        try {
            Thread.sleep(100);//防止访问速度太快影响服务器性能(其实是怕被屏蔽)
            int rootUrlLength = parentUrl.lastIndexOf("/");
            String parentRootUrl = parentUrl.substring(0, rootUrlLength + 1);//用于点击下一级区划时拼装的url的前部分url

            Document document = Jsoup.connect(parentUrl).get();
            //获取区划信息的tr
            Elements citytrElements = document.getElementsByClass("citytr");//市级
            //因为各级区划的class不一致,所以需要判断是否为空。如果为空则用下一级类型去选择元素。
            if (citytrElements.size() == 0) {
                citytrElements = document.getElementsByClass("countytr");//区(县)级
                if (citytrElements.size() == 0) {
                    citytrElements = document.getElementsByClass("towntr");//街道(乡)级
                    if (citytrElements.size() == 0) {
                        citytrElements = document.getElementsByClass("villagetr");//社区(村)级
                    }
                }
            }
            for (Element citytr : citytrElements) {
                String regionCode = "";
                String regionName = "";
                Elements tdElements = citytr.getElementsByTag("td");
                Elements regionCodeElements = tdElements.get(0).getElementsByTag("a");
                //如果当前节点没有下级区划,即不为<a>连接,则直接获取信息
                if (regionCodeElements.size() == 0) {
                    //如果是最底层区划,则有三个td
                    if (tdElements.size() == 3) {
                        regionCode = tdElements.get(0).text();
                        regionName = tdElements.get(2).text();
                    } else {
                        regionCode = tdElements.get(0).text();
                        regionName = tdElements.get(1).text();
                    }
                    JSONObject regionJson = new JSONObject();
                    regionJson.put("regionCode", regionCode);
                    regionJson.put("regionName", regionName);
                    regionList.add(regionJson);
                    printRegion(regionCode, regionName);
                } else {
                    //有下级区划,则进行迭代
                    String regionUrl = regionCodeElements.get(0).attr("href");
                    regionCode = regionCodeElements.get(0).text();
                    Elements regionNameElements = tdElements.get(1).getElementsByTag("a");
                    regionName = regionNameElements.get(0).text();
                    JSONObject regionJson = new JSONObject();
                    regionJson.put("regionCode", regionCode);
                    regionJson.put("regionName", regionName);
                    regionList.add(regionJson);
                    printRegion(regionCode, regionName);
                    String url = parentRootUrl + regionUrl;
                    getRegion(url);
                }
            }
        } catch (IOException e) {
            e.printStackTrace();
            fileUrlList.add(parentUrl);
            System.out.println("未访问的地址:" + parentUrl);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }

    /**
     * 输出Excel文件
     * @param list
     */
    public static void createExcel(List<JSONObject> list) {
        //TODO 生成Excel
    }

    /**
     * 输出抓取的信息
     * @param regionCode
     * @param regionName
     */
    public static void printRegion(String regionCode, String regionName) {
        System.out.println("第" + index + "条:" + regionCode + "-" + regionName);
        index++;
    }
}
对于生成Excel的方法,在实际情况中使用了Apache POI的HSSFWorkbook类生成的,具体实现就不贴在这里了,因为和我们的主题爬虫没有什么关系。之后我会把源码上传上来,方便大家查看并且批评指正。








  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
Java Jsoup 是一个开源的 HTML 解析器库,可以用来实现简单的 Web 页面爬取。以下是一个简单的 Java Jsoup 爬虫实现: 1. 导入 Jsoup 库 首先需要在项目中导入 Jsoup 库,可以在 Maven 中添加以下依赖: ``` <dependency> <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> <version>1.13.1</version> </dependency> ``` 2. 获取页面内容 通过 Jsoup 的 connect() 方法连接指定的 URL,并使用 get() 方法获取页面内容,如下所示: ``` String url = "https://www.example.com"; Document doc = Jsoup.connect(url).get(); ``` 3. 解析页面内容 使用 Jsoup 的 select() 方法选择页面中需要抓取的元素,并使用 text() 或者 attr() 方法获取其文本内容或属性值,如下所示: ``` Elements links = doc.select("a[href]"); for (Element link : links) { String href = link.attr("href"); String text = link.text(); System.out.println(text + " -> " + href); } ``` 以上代码会抓取页面中所有的链接,然后输出链接的文本和地址。 4. 完整代码 ``` import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class MyCrawler { public static void main(String[] args) { String url = "https://www.example.com"; try { Document doc = Jsoup.connect(url).get(); Elements links = doc.select("a[href]"); for (Element link : links) { String href = link.attr("href"); String text = link.text(); System.out.println(text + " -> " + href); } } catch (Exception e) { e.printStackTrace(); } } } ``` 以上代码可以抓取指定页面中的所有链接,并输出链接的文本和地址。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小白码上飞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值