最新Android基于Jsoup的网络爬虫(1),面试官不讲武德

一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

img
img

二、Python必备开发工具

工具都帮大家整理好了,安装就可直接上手!img

三、最新Python学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

img

四、Python视频合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

img

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。img

六、面试宝典

在这里插入图片描述

在这里插入图片描述

简历模板在这里插入图片描述

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

然后在gradle中添加以下依赖

compile ‘org.jsoup:jsoup:1.12.1’

由于jsoup需要获取网络数据,所以需要添加网络权限

四、Jsoup的使用


1.从一个字符串、文件或者一个 URL 中解析HTML

String html = “First parse

  • Parsed HTML into a doc.

    ”;

Document doc = Jsoup.parse(html);

当对象是URL时,使用 Jsoup.connect(String url)方法:

Document doc = Jsoup.connect(“http://example.com/”).get();

String title = doc.title();

当URL请求为post方式而不是get方式时

Document doc = Jsoup.connect(“http://example.com”)

.data(“query”, “Java”)

.userAgent(“Mozilla”)

.cookie(“auth”, “token”)

.timeout(3000)

.post();

2.提供一系列方法对HTML进行数据抽取

Jsoup将HTML解析成Document后,可以使用一系列DOM方法:

File input = new File(“/tmp/input.html”);

Document doc = Jsoup.parse(input, “UTF-8”, “http://example.com/”);

Element content = doc.getElementById(“content”);

Elements links = content.getElementsByTag(“a”);

for (Element link : links) {

String linkHref = link.attr(“href”);

String linkText = link.text();

}

Elements这个对象提供了一系列类似于DOM的方法来查找元素,抽取并处理其中的数据。具体如下:

查找元素

getElementById(String id)

getElementsByTag(String tag)

getElementsByClass(String className)

getElementsByAttribute(String key) (and related methods)

Element siblings: siblingElements(), firstElementSibling(), lastElementSibling(); nextElementSibling(), previousElementSibling()

Graph: parent(), children(), child(int index)

操作HTML和文本

append(String html), prepend(String html)

appendText(String text), prependText(String text)

appendElement(String tagName), prependElement(String tagName)

html(String value)

3.对HTML元素、属性、文本进行操作

在你解析一个Document之后可能想修改其中的某些属性值,然后再保存到磁盘或都输出到前台页面。

可以利用Jsoup进行如下操作:

Element div = doc.select(“div”).first(); //

div.html(“

lorem ipsum

”); //

lorem ipsum

div.prepend(“

First

”);//在div前添加html内容

div.append(“

Last

”);//在div之后添加html内容

// 添完后的结果:

First

lorem ipsum

Last

Element span = doc.select(“span”).first(); // One

span.wrap(“

  • ”);

    // 添完后的结果:

  • One
  • 这是对一个HTML中内容元素的设置

    关于Jsoup的更多使用细节可以参考中文文档:https://www.open-open.com/jsoup/

    五、爬取数据的思路


    1.根据想要获取的资源,利用浏览器自带的审查元素功能(F12)获得想要的资源

    以知乎为例如下可见网页的各个元素的名称:

    在这里插入图片描述

    2.利用Jsoup进行解析:

    这里主要的分析网站是https://www.zhihu.com/topic/19550874/hot

    因为Android的网络操作需要在不能在主线程运行,可以使用Thread+Handler或者AsyncTask获取数据并在主界面刷新UI。

    其次是数据的展示,将数据放在listView中即可,如果要加入下拉刷新或者上滑加载则需要额外的工作。

    以下是关键代码:

    /private class SearchTask extends AsyncTask<Void, Void, Boolean>

    {

    Context context;

    Map.Entry<String,String> topicURL;

    public SearchTask(Context context,Map.Entry<String,String> topicURL)

    {

    this.context = context;

    this.topicURL = topicURL;

    }

    @Override

    protected Boolean doInBackground(Void… voids)

    {

    Connection conn= Jsoup.connect(“https://www.zhihu.com/topic/” + topicURL.getValue()+ “/hot”);

    Document doc;

    try

    {

    doc = conn.get();

    Elements answerList = doc.select(“div[class=ContentItem AnswerItem]”);

    for (Element element : answerList)

    {

    Map<String, Object> map = new HashMap<>();

    //作者 标题

    JsonParser parser = new JsonParser();

    JsonObject data = parser.parse(element.attr(“data-zop”)).getAsJsonObject();

    String authorName = data.get(“authorName”).getAsString();

    String title = data.get(“title”).getAsString();

    map.put(“title”, title);

    (1)Python所有方向的学习路线(新版)

    这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

    最近我才对这些路线做了一下新的更新,知识体系更全面了。

    在这里插入图片描述

    (2)Python学习视频

    包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

    在这里插入图片描述

    (3)100多个练手项目

    我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

    在这里插入图片描述

    网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

    需要这份系统化学习资料的朋友,可以戳这里获取

    一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 10
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用Java编写基于HttpClient和Jsoup爬虫,需要进行以下步骤: 1. 首先,导入HttpClient和Jsoup的依赖包。可以使用maven或gradle进行依赖管理。 2. 创建一个HttpClient实例,用于发送HTTP请求和接收响应。可以使用HttpClients.createDefault()方法创建一个默认配置的实例。 3. 创建一个HttpGet实例,设置请求URL和请求头信息。可以使用new HttpGet(url)方法创建一个HttpGet实例,然后使用setHeader()方法设置请求头信息。 4. 发送HTTP请求,并获取响应结果。可以使用HttpClient.execute()方法发送请求,并使用HttpResponse.getEntity()方法获取响应实体。 5. 解析HTML内容。可以使用Jsoup.parse()方法解析HTML内容,然后使用Jsoup提供的API进行内容提取和处理。 以下是一个使用HttpClient和Jsoup进行网页爬取的示例代码: ```java import org.apache.http.HttpResponse; import org.apache.http.client.HttpClient; import org.apache.http.client.methods.HttpGet; import org.apache.http.impl.client.HttpClients; import org.apache.http.util.EntityUtils; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import java.io.IOException; public class WebCrawler { public static void main(String[] args) throws IOException { // 创建一个HttpClient实例 HttpClient httpClient = HttpClients.createDefault(); // 创建一个HttpGet实例,设置请求URL和请求头信息 HttpGet httpGet = new HttpGet("https://www.example.com"); httpGet.setHeader("User-Agent", "Mozilla/5.0"); // 发送HTTP请求,并获取响应结果 HttpResponse httpResponse = httpClient.execute(httpGet); String html = EntityUtils.toString(httpResponse.getEntity(), "UTF-8"); // 解析HTML内容 Document document = Jsoup.parse(html); String title = document.title(); System.out.println("Title: " + title); } } ``` 在这个示例中,我们使用HttpClient发送了一个GET请求到https://www.example.com,并获取了响应结果。然后使用Jsoup解析HTML内容,并获取了网页的标题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值