python中selenium中使用ajax_Python3.x:Selenium+PhantomJS爬取带Ajax、Js的网页

Python3.x:Selenium+PhantomJS爬取带Ajax、Js的网页

前言

现在很多网站的都大量使用JavaScript,或者使用了Ajax技术。这样在网页加载完成后,url虽然不改变但是网页的DOM元素内容却可以动态的变化。如果处理这种网页是还用requests库或者python自带的urllib库那么得到的网页内容和网页在浏览器中显示的内容是不一致的。

解决方案

使用Selenium+PhantomJS。这两个组合在一起,可以运行非常强大的爬虫,可以处理cookie,JavaScript,header以及其他你想做的任何事情。

安装第三方库

Selenium是一个强大的网络数据采集工具,最初是为网站自动化测试开发的,其有对应的Python库;

Selenium安装命令:

pip install selenium

安装PhantomJS

PhantomJS是一个基于webkit内核的无头浏览器,即没有UI界面,即它就是一个浏览器,只是其内的点击、翻页等人为相关操作需要程序设计实现。通过编写js程序可以直接与webkit内核交互,在此之上可以结合java语言等,通过java调用js等相关操作。需要去官网下载对应平台的压缩文件;

PhantomJS(phantomjs-2.1.1-windows)下载地址:http://phantomjs.org/download.html

下载PhantomJs 然后将 解压后的执行文件放在被设置过环境变量的地方,不设置的话,后续代码就要设, 所以这里直接放进来方便;

然后检测下,在cmd窗口输入phantomjs:

出现这样的画面,即表示成功;

示例一:

Selenium+PhantomJS示例代码:

from selenium importwebdriver

driver=webdriver.PhantomJS()

driver.get('http://www.cnblogs.com/lizm166/p/8360388.html')#获取网页源码

data =driver.page_sourceprint(data)#获取元素的html源码

tableData = driver.find_element_by_tag_name('tableData').get_attribute('innerHTML')#获取元素的id值

tableI = driver.find_element_by_tag_name('tableData').get_attribute('id')#获取元素的文本内容

tableI = driver.find_element_by_tag_name('tableData').text#循环测试

list_container = driver.find_elements_by_xpath("//div[@class='list-container mb-bg']/dl/dt/h3/a")for title inlist_container:print 'Num' + str(SUMRESOURCES +1)print u'标题:' +title.textprint u'链接:' + title.get_attribute('href')

driver.quit()

能输出网页源码,说明安装成功

示例二:

通过这两者来解决客户端重定向问题的例子:

程序首先加载了driver对象,然后请求网站,之后没0.5秒检测网站的html元素,如果html元素发生改变则认为页面发生了重定向,然后打印重定向后的页面内容。

代码:

from selenium importwebdriverimporttimefrom selenium.webdriver.remote.webelement importWebElementfrom selenium.common.exceptions importStaleElementReferenceException#处理重定向,可以定时检查页面的某元素#如果和先前的不一致则可认为客户端重定向

defwait_for_load(driver):#elem = driver.find_element_by_tag_name("html")

title = driver.find_element_by_tag_name("title")#print(title)

count =0whileTrue:

count+= 1

if count > 20:print("Timing out after 10 seconds and returning")returntime.sleep(.5)

newtitle= driver.find_element_by_tag_name("title")if newtitle !=title:return

#try:

#elem = driver.find_element_by_tag_name("html")

#except StaleElementReferenceException:

#return

driver= webdriver.PhantomJS(executable_path='./phantomjs')

driver.get("http://pythonscraping.com/pages/javascript/redirectDemo1.html")

wait_for_load(driver)print(driver.page_source)

示例三:

importrequestsfrom bs4 importBeautifulSoupfrom selenium importwebdriverdefgetData(dataUrl):#获取ajax返回的页面(用bs4获取不到ajax返回的数据)

driver =webdriver.PhantomJS()

driver.get(dataUrl)#获取table元素

tables = driver.find_elements_by_tag_name('table')if tables isNone:print('网页加载获取数据失败')

logger.info('网页加载获取数据失败')#获取table元素中的tr元素

trList = tables[0].find_elements_by_tag_name('tr')if trList isNone:print('网页加载获取数据失败')

logger.info('网页加载获取数据失败')for i inrange(0,len(trList)):if i >0:#获取table元素中的tr元素中的td元素

tdList = trList[i].find_elements_by_tag_name('td')if tdList is notNone:for n inrange(0,len(tdList)):#获取td元素文本内容

print(">>>>%s:%s"%(n,tdList[n].text))

driver.quit()defgetDataUrl(issueid):

dataUrl= ''url= "http://******/Scsj_tjyb_issue.jsp"headerDict= {'Host': '******','User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.31 Safari/537.36','Accept': '*/*','Accept-Language': 'zh-CN,zh;q=0.8','Accept-Encoding': 'gzip, deflate','Origin':'http://******,

'Referer': 'http://******/tjyb_front/','Connection': 'keep-alive'}

data= {'AJAX': '1', 'TEMPLATE_ID': '1114','ISSUEID': issueid, 'CATALOGTYPE': 'main','LANGUAGE': 'zh', 'HEAD': ''}

res= requests.post(url, data=data, headers=headerDict)#获取跳转后的页面源码,返回json串

soup = BeautifulSoup(res.content, "html.parser")if soup.find_all('a',target='_blank') is notNone:for a_url in soup.find_all('a',target='_blank'):if a_url.string == '******统计表':

dataUrl=a_url['href']break

else:print("未获取到a标签")

logger.info("未获取到a标签")print('http://******'+dataUrl)return 'http://******'+dataUrlif __name__ == '__main__':

url= getDataUrl('897')

getData(url)

示例四:

#自定义请求头head

from selenium importwebdriverfrom selenium.webdriver.common.desired_capabilities importDesiredCapabilities#设置自定义请求头参数

defget_headers_driver():

desire=DesiredCapabilities.PHANTOMJS.copy()

headers= {'Accept': '*/*','Accept-Language': 'en-US,en;q=0.8','Cache-Control': 'max-age=0','User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36','Connection': 'keep-alive','Referer': 'http://www.baidu.com/'}for key, value inheaders.items():

desire['phantomjs.page.customHeaders.{}'.format(key)] =value

driver= webdriver.PhantomJS(desired_capabilities=desire, service_args=['--load-images=yes'])#将yes改成no可以让浏览器不加载图片

returndriver#登录

deflogin():

driver=get_headers_driver(cookie)

url= "http://******/login/main.do"driver.get(url)#获取网页源码

print(driver.page_source)

注:模拟回车键代码

# 模拟回车

from selenium.webdriver.common.keys importKeys

driver.find_element_by_xpath("**").send_keys(Keys.ENTER)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值