关于java获取网页内容

最近项目需求,做一些新闻站点的爬取工作。
1.简单的jsoup爬取,静态页面形式;

String url="a.atimo.cn";//静态页面链接地址
Document doc = Jsoup.connect(url).userAgent("Mozilla").timeout(4000).get();
if(doc!=null){ Elements es = doc.select("div.comments>ul>li");// System.out.println(es); if(es!=null && es.size()>0){ for (Element element : es) { String link = element.select("div>h3").attr("href"); String title = element.select("div>h3").text(); String author = element.select("div.c-abstract>em").text(); String content = element.select("dd>a>div.icos>i:eq(1)").text(); } } }

通过jsop解析返回Document 使用标签选择器,选择页面标签中的值,即可获取页面内容。

2.延时加载,有些网站存在延时加载,表格内容,或者嵌入页面形式的加载的页面;
属于jsop范围

        //构造一个webClient 模拟Chrome 浏览器
        String url = "https://www.cnblogs.com/atimo/";
        WebClient webClient = new WebClient(BrowserVersion.CHROME);
        //支持JavaScript
        webClient.getOptions().setUseInsecureSSL(true); 
        webClient.getOptions().setJavaScriptEnabled(true);
        webClient.getOptions().setCssEnabled(false);
        webClient.getOptions().setActiveXNative(false);
        webClient.getOptions().setCssEnabled(false);
        webClient.getOptions().setThrowExceptionOnScriptError(false);
        webClient.getOptions().setThrowExceptionOnFailingStatusCode(false);
        webClient.getOptions().setTimeout(3000000);
        HtmlPage rootPage = webClient.getPage(url);
        String html = rootPage.asXml();
        Document document = Jsoup.parse(html);
        Elements es = document.select("div.comments");//.select("#content_left");
        System.out.println(es);
        if(es!=null && es.size()>0){
            for (Element element : es) {
            String link = element.select("div.f13>a").attr("href");
            String title = element.select("div>h3>a").text();
            String text = element.select("div.c-abstract>em").text();
        }
        }    

获取到的是Document 使用标签选择器,选择页面标签中的值,即可获取页面内容。

3.获取评论或其他内容,返回json数据;js请求
普通请求,只需要使用
 HttpURLConnection connection = createRequest(url, "GET");
  
// 建立实际的连接 connection.connect();
 
发送GET请求过去json数据后解析即可;
4.js请求带请求头参数(部分为移动端请求)

            CloseableHttpClient https = HttpClients.createDefault();
            String url = "https://action=hene=124&devicetype=androidlag=zh_CN&nettyene=3&pass_ticwx_header=1";
            HttpGet httpPost = new HttpGet(url);
            httpPost.addHeader("Host", "mp.weixin.qq.com");
            httpPost.addHeader("x-wechat-uin", wechartCookie.getUin());
            httpPost.addHeader("x-", "参数");
            HttpResponse response = https.execute(httpPost);
            HttpEntity entitySort = response.getEntity();
            String html = EntityUtils.toString(entitySort, "utf-8");

 

请求头参数根据抓包工具拦截的请求时需要的参数变更;

 

转载于:https://www.cnblogs.com/atimo/p/10006820.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值