SpiderFlow爬虫获取网页节点

SpiderFlow爬虫获取网页节点

一、SpiderFlow 文档地址:https://www.spiderflow.org/

二、问题:获取一篇文章的标题、来源、发布时间、正文、下载附件该怎么获取?

举例:【公示】第三批智能光伏试点示范名单公示

三、抓取网页步骤(简单版,分页、循环、多分支暂不涉及,具体看文档)

1.设置抓取网页链接

2.设置参数,如果需要设置参数的话(上面例子不需要参数)

3.执行抓取

抓取后返回抓取结果,结果默认就叫resp。可以在Var变量中定义具体的数值,定义的变量后面的流程都可以使用,使用方法为${变量名},此时定义了一个变量叫responseData,这个变量代表resp.html

  • resp都有什么?

resp.html 为页面的HTML

resp.json  为json结果

具体区分看下图,文档地址:https://www.spiderflow.org/course/variable.html#%E7%88%AC%E5%8F%96%E7%BB%93%E6%9E%9C

4.输出结果,检查返回的结果是否正确

可以看到在测试窗口中已经展现了resp.html完整的页面结构,也就是 在浏览器中 按F12看到的前端页面完整的节点结构

四、要获取标题、公示时间、地址、正文等内容还需要学习了解如何获取节点

1.获取节点

(1)抽取函数 extract,文档地址https://www.spiderflow.org/function/extra.html#selector

获取单个节点 使用 selector

获取多个节点使用 selectors

举例 获取 标题

 

标题只有一个,所有用 selector,可以看到 标题所在的层级如下 #app/.artDetail/.ant-row/.artDetail_content/h2 ,那需不需要一级一级往下找呢?

${extract.selector(resp.html,'#app .artDetail .ant-row .artDetail_content h2')} 

答案是不需要,只要能保证父级唯一就行,如果父级不唯一则继续往上找

两级就可以

${extract.selector(resp.html,'.artDetail_content h2')} 

可以看到标题已经输入成功了

2.获取 html、文本、href链接

3.css 选择器

Css 选择器 包括 元素选择器、类选择器、id选择器、后代选择器、子代选择器等等

具体用法可以参考 css选择器 文档

https://www.runoob.com/cssref/css-selectors.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用Python爬虫获取网页内容,可以按照以下步骤进行操作。 第一步:安装requests库和BeautifulSoup库。这两个库是Python常用的爬虫工具,requests库用于发送HTTP请求,而BeautifulSoup库用于解析HTML页面。可以使用pip命令来安装这两个库。 第二步:导入requests和BeautifulSoup库。在Python脚本中导入这两个库,以便后续使用它们的功能。 第三步:发送HTTP请求并获取网页内容。使用requests库发送HTTP请求,可以使用get()方法来获取网页内容。将目标网址作为参数传递给get()方法,并将返回的响应保存在一个变量中。 第四步:解析网页内容。使用BeautifulSoup库对网页内容进行解析。可以使用BeautifulSoup的构造函数将网页内容和解析器类型作为参数传递进去,并将返回的BeautifulSoup对象保存在一个变量中。 第五步:提取需要的信息。通过BeautifulSoup对象可以使用一些方法来提取网页中的特定信息,例如find()方法和find_all()方法来查找特定的标签和属性。可以使用这些方法来提取想要的数据。 第六步:处理提取的信息。根据需求对提取的信息进行处理,可以将其保存到文件中、存储到数据库中或进行进一步的分析和处理。 综上所述,以上就是使用Python爬虫获取网页内容的一般步骤。通过安装必要的库、发送HTTP请求、解析网页内容、提取需要的信息和处理提取的信息,我们可以实现获取网页内容的功能。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span>

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值