python 爬取 js渲染_scrapy 爬取 javascript 动态渲染页面

前言

初因是给宝宝制作拼音卡点读包时,要下载卖家提供给的MP3,大概有2百多个。作为一个会码代码的非专业人士,怎么可能取一个一个下载?所以就决定用python 的 scrapy 框架写个爬虫,去下载这些MP3。一开始以为简单,直到完成下载,竟然花了我一下午的时间。最大的难题就是页面的数据是通过javascript 脚本动态渲染的。百度上大部分方法都是通过splash 做中转实现的方法,而我只是想简单的写个代码实现而已,看splash还要挂docker,巴啦巴啦一大堆的操作,顿时就心塞了。通过百度和自己实践,终于找到了一个最简单的方法解决了问题,特此记录下来,同大家分享一下。

页面分析

先开始分析目标html

首页

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

韵母列表页

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

拼音 e MP3 页

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

看着简单吧,可一爬取,问题立马就出现了,curl下静态页看看。

curl -s https://biz.cli.im/test/CI525711?stime=2 >111.html

首页竟是这样的,页面的列表数据,是通过javascript 动态渲染的。

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

是个json 数据,再格式化后分析下,页面link 都在data 这个json数据里了。

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

代码实现

最基础的response.xpath 方式是不能用了,我的思路是把scripts 获取出来,然后用获取soncode_link 的值。

经过研究决定用 BeautifulSoup + js2xml

class JingboSpider(scrapy.Spider):

name = 'jingbo'

allowed_domains = ['biz.cli.im']

all_urls= "https://biz.cli.im"

start_urls = ['test/CI525711?stime=2']

def start_requests(self):

#自定义headers

for url in self.start_urls:

yield scrapy.Request(self.all_urls+"/"+url, headers={"User-Agent": USER_AGENT})

def parse(self, response):

resp = response.text

# 用lxml作为解析器 ,解析返回数据

soup = BeautifulSoup(resp,'lxml')

# 获取所有script 标签数据,并遍历查找

scripts = soup.find_all('script')

for script in scripts:

if type(script.string) is type(None):

continue

if script.string.find("loadtemp();") > 0:

src=script

break

title="title"

link="soncode_link"

# 将js 数据转化为 xml 标签树格式

src_text = js2xml.parse(src.string, encoding='utf-8',debug=False)

src_tree = js2xml.pretty_print(src_text)

# print(src_tree)

selector = etree.HTML(src_tree)

links = selector.xpath("//property[@name = '"+link+"']/string/text()")

playurl = selector.xpath("//property[@name = 'play_url']/string/text()")

titles = selector.xpath("//property[@name = '"+title+"']/string/text()")

#剩下就是循环获取页面,下载MP3文件了。

scrapy 环境安装

pip install Twisted‑18.9.0‑cp37‑cp37m‑win_amd64.whl

pip install pypiwin32 js2xml urllib2 Scrapy

创建项目

scrapy startproject pinyin

创建 任务

开始爬取

scrapy crawl jingbo

最后战果

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=

参考文档

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值