使用 jsoup 实现简单的 java 爬虫

本人使用过 htmlpaser 和 jsoup 写过一些爬虫项目。

个人感觉 jsoup 比 htmlpaser 好用的不止一点,jsoup 能使用类似 css 选择器的语法去筛选想要的节点,而 htmlpaser 则需要使用选择器类对象。jsoup 的使用和 jquery 比较像,对于使用 jquery 很熟练的我来说,毫不犹豫的放弃了 htmlpaser 的使用,对 jsoup 爱不释手。


本文只是简单的 jsoup maven demo,爬取写个人需要的网页数据基本是够用了。详细的学习可以参见下面的网址。

JSOUP 教程—— Java爬虫,简易入门,秒杀htmlparser

 jsoup Cookbook(中文版)

易百教程——JSoup教程 


 maven依赖 (非maven项目可以去 mvnrepository 下载 jar 包)

<!-- https://mvnrepository.com/artifact/org.jsoup/jsoup -->
<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.10.2</version>
</dependency>

Java 单元测试还需要 junit 包(当然也可以用 main函数启动,个人建议使用 junit 启动)

<!-- https://mvnrepository.com/artifact/org.junit.jupiter/junit-jupiter-api -->
<dependency>
    <groupId>org.junit.jupiter</groupId>
    <artifactId>junit-jupiter-api</artifactId>
    <version>5.2.0</version>
    <scope>test</scope>
</dependency>

JsoupTest.java

package com.design.maven;

import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
import org.junit.jupiter.api.Test;

import java.io.File;
import java.io.IOException;
import java.net.URL;

/**
 * @author Administrator
 */
class JsoupTest {

    /**
     * 得到 document 对象的几种方式
     */
    @Test
    void getDocument() {
        // 1. 直接从字符串中输入 HTML 文档
        String htmlStr = "<html><head><title>学习使我快乐</title></head><body><p>好好学习,天天向上</p></body></html>";
        Document document1 = Jsoup.parse(htmlStr);

        try {
            // 2. 从文件中加载 HTML 文档
            File file = new File("src/main/resources/index.html");
            Document document2 = Jsoup.parse(file, "UTF-8", null);

            // 3. 从 URL 使用 GET 方法直接加载 HTML 文档
            Document document3 = Jsoup.connect("http://www.baidu.com/").get();

            // 4. 从 URL 使用 POST 方法直接加载 HTML 文档
            Document document4 = Jsoup.connect("http://www.baidu.com/").post();

            // 5. 从 URL 使用 execute 方法获取响应, 从响应流中解析出 HTML 文档
            Connection.Response response = Jsoup.connect("http://www.baidu.com/").execute();
            Document document5 = response.parse();

        } catch (IOException e) {
            e.printStackTrace();
        }

        String title = document1.title();
        System.out.println(title);
    }

    @Test
    void parseUrl() {
        try {
            URL url = new URL("https://xingzhengquhua.51240.com/");

            Document document = Jsoup.parse(url, 300);

            // 解析出的 document 的对象, 可以使用像 jquery 的选择器语法去筛选想要的节点
            // 例如: cssQuery: "table.kuang_biaoge tbody table"
            //      筛选 类名为 kuang_biaoge的 table 标签下的 tbody 标签下的所有 table 标签节点
            Elements items = document.select("table.kuang_biaoge tbody table");

            // 注意 select() 方法返回的 Elements 类型, 是多个节点
            // document.getElementById() 返回的 是唯一的 Element 对象
            // 其他 document.getElementByXXXXX 返回的基本都是 Elements 类型

            Element element = items.get(0);
            Elements tr = element.select("tr");
            for (Element e : tr) {
                System.out.println(e);
            }
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    @Test
    void parseString() {
        String string = "<table width=\"100%\" border=\"0\" cellpadding=\"8\" cellspacing=\"1\">\n" +
                " <tbody>\n" +
                "  <tr>\n" +
                "   <td colspan=\"3\" bgcolor=\"#FFFFFF\"><a href=\"/\">全国</a></td>\n" +
                "  </tr>\n" +
                "  <tr>\n" +
                "   <td bgcolor=\"#F5F5F5\">所辖行政区</td>\n" +
                "   <td bgcolor=\"#F5F5F5\">行政区划代码</td>\n" +
                "   <td bgcolor=\"#F5F5F5\">城乡分类</td>\n" +
                "  </tr>\n" +
                "  <tr>\n" +
                "   <td bgcolor=\"#FFFFFF\"><a href=\"/110000000000__xingzhengquhua/\">北京市</a></td>\n" +
                "   <td bgcolor=\"#FFFFFF\"><a href=\"/110000000000__xingzhengquhua/\">110000000000</a></td>\n" +
                "   <td bgcolor=\"#FFFFFF\"></td>\n" +
                "  </tr>\n" +
                " </tbody>\n" +
                "</table>\n" +
                "\n" +
                "Process finished with exit code 0\n";

        Document document = Jsoup.parse(string);

        Elements items = document.select("table tbody");
        Element element = items.get(0);
        Elements tr = element.select("tr");
        for (Element e : tr) {
            System.out.println(e);
        }
    }

    @Test
    void Test() {
        try {
            // Document doc = Jsoup.connect("https://search.jd.com/Search?keyword=手机&enc=utf-8&wq=手机&pvid=6e71aa1c0d654157add4cb5f08cd1f28")
            //        .header("Accept", "*/*")
            //        .header("Accept-Encoding", "gzip, deflate")
            //        .header("Accept-Language", "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3")
            //        .header("Referer", "https://www.baidu.com/")
            //        .header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0")
            //        .timeout(5000)
            //        .get();

            Document document = Jsoup.connect("https://search.jd.com/Search?keyword=手机&enc=utf-8&wq=手机&pvid=6e71aa1c0d654157add4cb5f08cd1f28").get();
            System.out.println(document);
        } catch (IOException e) {
            e.printStackTrace();
        }

    }
}

Github地址:https://github.com/liu1125/jsoupdemo

https://github.com/liu1125/jsoupdemo.git
Java Jsoup 是一个开源的 HTML 解析器库,可以用来实现简单的 Web 页面爬取。以下是一个简单Java Jsoup 爬虫实现: 1. 导入 Jsoup 库 首先需要在项目中导入 Jsoup 库,可以在 Maven 中添加以下依赖: ``` <dependency> <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> <version>1.13.1</version> </dependency> ``` 2. 获取页面内容 通过 Jsoup 的 connect() 方法连接指定的 URL,并使用 get() 方法获取页面内容,如下所示: ``` String url = "https://www.example.com"; Document doc = Jsoup.connect(url).get(); ``` 3. 解析页面内容 使用 Jsoup 的 select() 方法选择页面中需要抓取的元素,并使用 text() 或者 attr() 方法获取其文本内容或属性值,如下所示: ``` Elements links = doc.select("a[href]"); for (Element link : links) { String href = link.attr("href"); String text = link.text(); System.out.println(text + " -> " + href); } ``` 以上代码会抓取页面中所有的链接,然后输出链接的文本和地址。 4. 完整代码 ``` import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class MyCrawler { public static void main(String[] args) { String url = "https://www.example.com"; try { Document doc = Jsoup.connect(url).get(); Elements links = doc.select("a[href]"); for (Element link : links) { String href = link.attr("href"); String text = link.text(); System.out.println(text + " -> " + href); } } catch (Exception e) { e.printStackTrace(); } } } ``` 以上代码可以抓取指定页面中的所有链接,并输出链接的文本和地址。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

漠诽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值