不会点爬虫技术写代码真没意思,Java 爬虫利器 Jsoup 详解

Jsoup的概述

Jsoup是一款Java语言开发的HTML解析器,用于解析HTML文档以及对HTML文档进行操作,处理等。它提供了类似于jQuery的DOM操作方法,以及用于HTML元素遍历、迭代、查询以及修改等操作的API,同时还支持CSS选择器和正则表达式的解析。

Jsoup的特点

  • 可以从URL中直接获取网页的内容并进行解析。
  • 支持CSS选择器和正则表达式。
  • 采用DOM结构,直观简单。
  • 支持流畅的链式操作风格。
  • 支持属性查找和修改。
  • 支持XML解析。

Jsoup的优点

  • 简单、方便、易学易用。
  • Jsoup的相对性能比较高,特别是在处理大型HTML文件时。
  • 支持CSS选择器及正则表达式等复杂操作。
  • Jsoup对HTML进行清理,可以特别有效地防止XSS脚本攻击。
  • 能够与Java内部的文档模型(DOM)结合,符合Java的运行环境。

Jsoup的核心类

以下是Jsoup中最重要的几个核心类:

  • Document:代表整个HTML或XML文档。可以通过该类来获取所需的元素、属性等。
  • Element:代表HTML中的一个元素。例如, ,

    等。

  • Elements:代表多个元素组成的集合,即一个数组。
  • Node:代表一个节点,可以是文本、注释或者其他类型的节点。
  • TextNode:代表文本节点,主要用于获取标签之间的文本内容。
  • Attribute:代表HTML元素中的属性。

Jsoup的用法

这里我将从以下方面介绍Jsoup的用法:

1.导入Jsoup到项目中

在使用Jsoup前,需要将它添加到项目的依赖中。如果使用Maven,只需要在pom.xml文件中添加下面的代码即可:

<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.14.3</version>
</dependency>

2.解析HTML文档

解析HTML的第一步是将HTML文档加载到Jsoup的Document对象中,以便进行后续操作。可以通过以下方式实现:

String html = "<html><head><title>Jsoup Example</title></head>"
        + "<body><p>Hello world!</p></body></html>";
Document doc = Jsoup.parse(html);

其中,Jsoup.parse(html)可以将字符串转换为Document对象,而html则是需要解析的HTML。

3.从URL加载HTML

除了直接解析HTML字符串,Jsoup还支持从URL地址获取HTML内容并进行解析。可以使用以下代码:

String url = "http://www.example.com/";
Document doc = Jsoup.connect(url).get();

其中,Jsoup.connect(url).get()可以从指定的url地址获取HTML内容并解析成Document对象。

4.使用选择器查找元素

Jsoup支持类似于jQuery的CSS选择器语法,可以用非常简单的方式查找HTML元素。例如,查找所有的p标签,可以使用如下代码:

Elements paragraphs = doc.select("p");

select()方法会返回匹配选择器的元素的集合。

更进一步来说,选择器可以根据标签名、属性、样式等多种条件筛选元素。例如,以下代码会查找所有带有href属性的链接:

Elements links = doc.select("a[href]");

如果要查找指定class的元素,可以使用类似于CSS的“.classname”语法:

Elements elementsByClass = doc.select(".classname");

同样地,也支持按属性值进行查找:

Elements links = doc.select("a[href=\"#\"]");

这些选择器可以非常灵活地精准定位到需要的HTML元素。

5.获取元素的属性和内容

在定位到所需的HTML元素后,可以使用Jsoup提供的方法获取元素的属性和内容。例如,以下代码可以获取a标签的href属性和显示的文本内容:

Element link = doc.select("a").first();
String href = link.attr("href");
String text = link.text();

attr()方法可以获取指定属性的值,而text()方法可以获取标签之间的文本内容。

6.修改HTML文档

Jsoup不仅可以解析HTML文档,还可以修改文档中的元素、属性等内容。可以使用以下代码:

Element link = doc.select("a").first();
link.attr("href", "http://www.newsite.com/");
link.text("New Site");

这些方法可以非常方便地修改HTML文档中的元素和属性。

7.处理HTML中的正文

有时候我们只需要解析HTML中的正文部分而不是全文,这种情况下可以使用Jsoup提供的方法实现。例如,以下代码可以提取HTML中的所有正文段落:

Document doc = Jsoup.parse(html);
Elements paragraphs = doc.select("p");
String text = paragraphs.text();

上面代码中,Jsoup首先解析HTML文档并查找所有的p标签,然后使用text()方法提取正文内容。

Jsoup的高级用法

了解了基本用法后,我们可以进一步了解Jsoup的高级用法,例如:

1.从HTML中提取图片

可以使用以下代码提取出HTML文档中的所有图片:

Document doc = Jsoup.connect(url).get();
Elements images = doc.select("img[src~=(?i)\\.(png|jpe?g|gif)]");

这里的正则表达式可以过滤掉非图片类型的元素。

2.从HTML中提取所有链接

可以使用以下代码提取出HTML中的所有链接:

Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");

然后遍历links集合,即可获取每个链接的href属性和文本内容。

3.自定义User-Agent和超时时间

可以通过以下方式指定Jsoup连接的User-Agent和超时时间:

String url = "http://www.example.com/";
Connection conn = Jsoup.connect(url);
conn.userAgent("Mozilla/5.0 (Windows NT 6.1; WOW64; rv:29.0) Gecko/20100101 Firefox/29.0");
conn.timeout(5000);
Document doc = conn.get();

其中userAgent()方法可以设置User-Agent,timeout()方法可以设置超时时间,单位是毫秒。

4.处理HTML中的中文编码问题

当解析包含中文字符的HTML文档时,可能会出现乱码等问题。可以通过以下方式解决:

Document doc = Jsoup.parse(html, "UTF-8");
String title = doc.title();
String text = doc.text();

这里的"UTF-8"指定了HTML文档的字符集,以解决编码问题。

5.处理HTML中的表格

可以使用以下代码提取表格中的数据:

Document doc = Jsoup.connect(url).get();
Elements tableRows = doc.select("table tr");
for (Element row : tableRows) {
    Elements cells = row.select("td");
    for (Element cell : cells) {
        String cellText = cell.text();
    }
}

这里先通过选择器查找所有的tr标签,然后对每个tr标签内的td标签进行遍历,获取单元格的内容。

6.处理HTML中的特殊字符

有些HTML文档中包含特殊字符,例如©、™等符号,这些符号可能会导致解析错误。可以使用以下方式解决:

Document doc = Jsoup.parse(html);
doc.outputSettings().escapeMode(EscapeMode.base);
String text = doc.text();

这里的escapeMode()方法可以指定转义字符的模式,base模式表示只转义基本的字符,其他的字符不做转义。

7.使用代理连接网站

有些网站可能会禁止爬虫访问,可以使用代理服务器连接到网站。可以使用以下代码设置代理:

String url = "http://www.example.com/";
Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress("proxyhost", 8080));
Connection conn = Jsoup.connect(url).proxy(proxy);
Document doc = conn.get();

其中proxy()方法可以设置代理服务器的地址和端口号。

8.处理HTML中的连接

可以使用以下代码将相对路径转换为绝对路径:

String url = "http://www.example.com/";
Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");
for (Element link : links) {
    String absLink = link.attr("abs:href");
}

这里的abs()方法可以将相对路径转换为绝对路径,从而能够正确地访问链接。

9.使用Jsoup处理XML

除了HTML,Jsoup还能够处理XML文档。可以使用以下代码解析XML文档:

String xml = "<root><item>1</item><item>2</item><item>3</item></root>";
Document doc = Jsoup.parse(xml, "", Parser.xmlParser());
Elements items = doc.select("item");

这里的xmlParser()方法将Jsoup的解析器设置为XML模式,然后就可以使用CSS选择器查找XML元素了。

10.处理HTML中的图片

有时候我们需要将HTML中的图片下载到本地使用。可以使用以下代码实现:

String imageUrl = "http://www.example.com/image.jpg";
Connection.Response resultImageResponse = Jsoup.connect(imageUrl).ignoreContentType(true).maxBodySize(0).execute();
byte[] imageBytes = resultImageResponse.bodyAsBytes();

这里的ignoreContentType()方法可以忽略ContentType的检查,maxBodySize()方法可以设置请求的最大字节数。然后可以将结果写入文件或者流中,以保存图片内容。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
您好!对于使用Java编写网络爬虫,我们可以使用Jsoup库来进行HTML解析和数据抓取。 首先,您需要在项目中引入Jsoup库。您可以在Maven或Gradle构建工具中添加以下依赖项: Maven: ```xml <dependency> <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> <version>1.13.1</version> </dependency> ``` Gradle: ```groovy implementation 'org.jsoup:jsoup:1.13.1' ``` 接下来,您可以使用Jsoup来获取和解析网页内容。以下是一个简单的示例代码,演示如何使用Jsoup来爬取网页并提取所需的数据: ```java import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; import java.io.IOException; public class WebCrawler { public static void main(String[] args) { try { // 使用Jsoup连接到目标网页 Document document = Jsoup.connect("http://example.com").get(); // 使用CSS选择器提取所需的元素 Elements links = document.select("a[href]"); // 遍历并打印提取到的元素 for (Element link : links) { System.out.println("Link: " + link.attr("href")); System.out.println("Text: " + link.text()); } } catch (IOException e) { e.printStackTrace(); } } } ``` 在上面的示例中,我们使用`Jsoup.connect()`方法连接到目标网页,并使用`document.select()`方法使用CSS选择器提取所有带有`href`属性的链接元素。然后,我们遍历这些链接元素,并打印出链接的URL和文本。 您可以根据自己的需求进一步扩展和修改代码来满足特定的爬虫需求。请注意,在编写爬虫时,请遵守相关网站的使用条款和政策,以避免违反规定。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大家都说我身材好

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值