/*
* 爬取网页信息
*/
private static String pickData(String url) {
CloseableHttpClient httpclient = HttpClients.createDefault();
try {
HttpGet httpget = new HttpGet(url);
CloseableHttpResponse response = httpclient.execute(httpget);
try {
// 获取响应实体
HttpEntity entity = response.getEntity();
// 打印响应状态
if (entity != null) {
return EntityUtils.toString(entity);
}
} finally {
response.close();
}
} catch (ClientProtocolException e) {
e.printStackTrace();
} catch (ParseException e) {
e.printStackTrace();
} catch (IOException e) {
java抓取网页内容
最新推荐文章于 2024-07-11 14:37:44 发布
这段代码展示了如何使用Java的HttpClients库获取网页数据,并通过Jsoup进行解析。首先创建一个HttpGet请求,然后执行请求获取响应实体,再将实体内容转换为字符串。接着使用Jsoup的parse方法解析HTML,通过select选择特定元素,最后获取和处理元素的属性值,实现对网页内容的抓取。
摘要由CSDN通过智能技术生成