python如何爬取javascript脚本_Python爬虫实战入门五:获取JS动态内容—爬取今日头条...

之前我们爬取的网页,多是HTML静态生成的内容,直接从HTML源码中就能找到看到的数据和内容,然而并不是所有的网页都是这样的。

有一些网站的内容由前端的JS动态生成,由于呈现在网页上的内容是由JS生成而来,我们能够在浏览器上看得到,但是在HTML源码中却发现不了。比如今日头条:

浏览器呈现的网页是这样的:

查看源码,却是这样的:

网页的新闻在HTML源码中一条都找不到,全是由JS动态生成加载。

遇到这种情况,我们应该如何对网页进行爬取呢?有两种方法:

1、从网页响应中找到JS脚本返回的JSON数据;2、使用Selenium对网页进行模拟访问

在此只对第一种方法作介绍,关于Selenium的使用,后面有专门的一篇。

一、从网页响应中找到JS脚本返回的JSON数据

即使网页内容是由JS动态生成加载的,JS也需要对某个接口进行调用,并根据接口返回的JSON数据再进行加载和渲染。

所以我们可以找到JS调用的数据接口,从数据接口中找到网页中最后呈现的数据。

就以今日头条为例来演示:

1、从找到JS请求的数据接口

F12打开网页调试工具

选择“网络”选项卡后,发现有很多响应,我们筛选一下,只看XHR响应。

(XHR是Ajax中的概念,表示XMLHTTPrequest)

然后我们发现少了很多链接,随便点开一个看看:

我们选择city,预览中有一串json

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python可以使用第三方库Scrapy或者BeautifulSoup来提取js脚本中的内容。 1. 使用Scrapy: Scrapy是一个强大的网络爬虫框架,它支持解析JavaScript渲染的页面。可以通过以下步骤使用Scrapy来提取js脚本中的内容: - 安装Scrapy库:在命令行中执行`pip install scrapy`命令安装Scrapy。 - 创建Scrapy项目:在命令行中执行`scrapy startproject project_name`命令创建一个Scrapy项目。 - 编写Spider:在项目的`spiders`目录下创建一个Spider,用于指定要爬取的网站和提取规则。 - 在Spider中使用SplashRequest:引入`scrapy_splash`模块并使用`SplashRequest`替换`scrapy.Request`,从而将页面渲染为可解析的HTML。 - 使用XPath或CSS选择器提取内容:在Spider中使用XPath或CSS选择器来提取目标内容。 - 运行Scrapy:执行`scrapy crawl spider_name`命令运行Scrapy爬虫。 2. 使用BeautifulSoup: BeautifulSoup是一个用于解析HTML和XML的Python库,可以用于提取js脚本中的内容。以下是使用BeautifulSoup提取js脚本内容的步骤: - 安装BeautifulSoup库:在命令行中执行`pip install beautifulsoup4`命令安装BeautifulSoup。 - 请求网页并获取HTML:使用Python的`requests`库发送HTTP请求,并获取网页的HTML内容。 - 解析HTML:使用BeautifulSoup将HTML内容解析成BeautifulSoup对象。 - 提取JS脚本内容:在BeautifulSoup对象上使用`find_all`或`select`等方法,使用合适的CSS选择器选择JS脚本元素,并提取其中的内容。 以上是两种常用的Python方法来提取js脚本中的内容。具体使用哪种方法取决于具体情况和个人偏好。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值