python爬虫审查元素_python爬虫3——获取审查元素(板野友美吧图片下载)

测试环境:python2.7 + beautifulsoup4.4.1 + selenium2.48.0

测试网址:http://tieba.baidu.com/p/2827883128

目的是下载该网页下所有图片,共160+张。可以分为以下几步:

1、获取网页源代码。

发现直接通过urllib2或者request获取到的源代码和实际图片对应不起来,通过chrome审查元素功能可以查询到对应的图片,猜测是该页面的图片加载是通过ajax异步传输的。因此使用工具selenium + chromedriver实现。安装好selenium+chromedriver之后,即可获取到需要的源代码。

2、分析获取到的源代码,找出图片的实际地址然后下载。过程与python爬虫2——下载文件类似。之前分析源码都是直接通过正则表达式实现,建议学习下beautifulsoup(现在就去),更方便。

实际程序运行后发现,只能获取到40张图片。原因是页面加载完成后,只有40张图片。如果需要获取全部图片,需要在页面加载完成之前,手动往下滑动滚轮,之后浏览器继续发送ajax请求给服务器,获取其他的图片。该方法实际测试可行,可以获取全部图片。

但是!手动操作这种方法太low了!以下是我的猜想:1、是否可以直接通过分析源代码中的js部分,直接提取出所有向后台服务器发送ajax请求的代码,一次性发送出去从而得到所有图片的地址? 2、是否可以通过js或者selenium,在加载页面的时间段,模拟滚轮动作,从而实现功能。方法2我实际测试了下,由于水平有限,不熟悉js,没有成功。附代码:

#-*- coding: utf-8 -*-

importrequestsfrom bs4 importBeautifulSoupfrom selenium importwebdriver

driver=webdriver.Chrome()

url= "http://tieba.baidu.com/p/2827883128"driver.get(url)try:#driver.implicitly_wait(20)

#driver.find_element_by_id("ag_main_bottombar")

#js="var q=document.body.scrollTop=10000"

#driver.execute_script(js)

sourcePage =driver.page_source

soup= BeautifulSoup(sourcePage, "lxml")

images= soup.find_all(class_ = "ag_ele_a ag_ele_a_v")print(len(images))for image inimages:print(image)finally:#pass

driver.quit()

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值