casperjs mysql_使用casperjs获取javascript渲染生成的html内容

文章摘要:其实这里casperjs与python没有直接关系,主要依赖casperjs调用phantomjs webkit获取html文件内容。长期以来,爬虫抓取 客户端javascript渲染生成的html页面 都极为 困难, Java里面有HtmlUnit, 而Python里,我们可以使用独立的跨平台的CasperJS。

创建site.js(接口文件,输入:url,输出:html file)

//USAGE: E:\toolkit\n1k0-casperjs-e3a77d0\bin>python casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile='temp.html'

var fs = require('fs');

var casper = require('casper').create({

pageSettings: {

loadImages: false,

loadPlugins: false,

userAgent: 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.137 Safari/537.36 LBBROWSER'

},

logLevel: "debug",//日志等级

verbose: true    // 记录日志到控制台

});

var url = casper.cli.raw.get('url');

var outputfile = casper.cli.raw.get('outputfile');

//请求页面

casper.start(url, function () {

fs.write(outputfile, this.getHTML(), 'w');

});

casper.run();

python 代码, checkout_proxy.py

import json

import sys

#import requests

#import requests.utils, pickle

from bs4 import BeautifulSoup

import os.path,os

import threading

#from multiprocessing import Process, Manager

from datetime import datetime

import traceback

import logging

import re,random

import subprocess

import shutil

import platform

output_file =  os.path.join(os.path.dirname(os.path.realpath(__file__)),'proxy.txt')

global_log  = 'http_proxy' + datetime.now().strftime('%Y-%m-%d') + '.log'

if not os.path.exists(os.path.join(os.path.dirname(os.path.realpath(__file__)),'logs')):

os.mkdir(os.path.join(os.path.dirname(os.path.realpath(__file__)),'logs'))

global_log = os.path.join(os.path.dirname(os.path.realpath(__file__)),'logs',global_log)

logging.basicConfig(level=logging.DEBUG,format='[%(asctime)s] [%(levelname)s] [%(module)s] [%(funcName)s] [%(lineno)d] %(message)s',filename=global_log,filemode='a')

log = logging.getLogger(__name__)

#manager = Manager()

#PROXY_LIST = manager.list()

mutex = threading.Lock()

PROXY_LIST = []

def isWindows():

if "Windows" in str(platform.uname()):

return True

else:

return False

def getTagsByAttrs(tagName,pageContent,attrName,attrRegValue):

soup = BeautifulSoup(pageContent)

return soup.find_all(tagName, { attrName : re.compile(attrRegValue) })

def getTagsByAttrsExt(tagName,filename,attrName,attrRegValue):

if os.path.isfile(filename):

f = open(filename,'r')

soup = BeautifulSoup(f)

f.close()

return soup.find_all(tagName, { attrName : re.compile(attrRegValue) })

else:

return None

class Site1Thread(threading.Thread):

def __init__(self,outputFilePath):

threading.Thread.__init__(self)

self.outputFilePath = outputFilePath

self.fileName = str(random.randint(100,1000)) + ".html"

self.setName('Site1Thread')

def run(self):

site1_file = os.path.join(os.path.dirname(os.path.realpath(__file__)),'site.js')

site2_file = os.path.join(self.outputFilePath,'site.js')

if not os.path.isfile(site2_file) and os.path.isfile(site1_file):

shutil.copy(site1_file,site2_file)

#proc = subprocess.Popen(["bash","-c", "cd %s && ./casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile=%s" % (self.outputFilePath,self.fileName) ],stdout=subprocess.PIPE)

if isWindows():

proc = subprocess.Popen(["cmd","/c", "%s/casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile=%s" % (self.outputFilePath,self.fileName) ],stdout=subprocess.PIPE)

else:

proc = subprocess.Popen(["bash","-c", "cd %s && ./casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile=%s" % (self.outputFilePath,self.fileName) ],stdout=subprocess.PIPE)

out=proc.communicate()[0]

htmlFileName = ''

#因为输出路径在windows不确定,所以这里加了所有可能的路径判断

if os.path.isfile(self.fileName):

htmlFileName = self.fileName

elif os.path.isfile(os.path.join(self.outputFilePath,self.fileName)):

htmlFileName = os.path.join(self.outputFilePath,self.fileName)

elif os.path.isfile(os.path.join(os.path.dirname(os.path.realpath(__file__)),self.fileName)):

htmlFileName = os.path.join(os.path.dirname(os.path.realpath(__file__)),self.fileName)

if (not os.path.isfile(htmlFileName)):

print 'Failed to get html content from http://spys.ru/free-proxy-list/IE/'

print out

sys.exit(3)

mutex.acquire()

PROXYList= getTagsByAttrsExt('font',htmlFileName,'class','spy14$')

for proxy in PROXYList:

tdContent = proxy.renderContents()

lineElems = re.split('[<>]',tdContent)

if re.compile(r'\d+').search(lineElems[-1]) and re.compile('(\d+\.\d+\.\d+)').search(lineElems[0]):

print lineElems[0],lineElems[-1]

PROXY_LIST.append("%s:%s" % (lineElems[0],lineElems[-1]))

mutex.release()

try:

if os.path.isfile(htmlFileName):

os.remove(htmlFileName)

except:

pass

if __name__ == '__main__':

try:

if(len(sys.argv)) 

print "Usage:%s [casperjs path]" % (sys.argv[0])

sys.exit(1)

if not os.path.exists(sys.argv[1]):

print "casperjs path: %s does not exist!" % (sys.argv[1])

sys.exit(2)

if os.path.isfile(output_file):

f = open(output_file)

lines = f.readlines()

f.close

for line in lines:

PROXY_LIST.append(line.strip())

thread1 = Site1Thread(sys.argv[1])

thread1.start()

thread1.join()

f = open(output_file,'w')

for proxy in set(PROXY_LIST):

f.write(proxy+"\n")

f.close()

print "Done!"

except SystemExit:

pass

except:

errMsg = traceback.format_exc()

print errMsg

log.error(errMsg)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
资源包主要包含以下内容: ASP项目源码:每个资源包中都包含完整的ASP项目源码,这些源码采用了经典的ASP技术开发,结构清晰、注释详细,帮助用户轻松理解整个项目的逻辑和实现方式。通过这些源码,用户可以学习到ASP的基本语法、服务器端脚本编写方法、数据库操作、用户权限管理等关键技术。 数据库设计文件:为了方便用户更好地理解系统的后台逻辑,每个项目中都附带了完整的数据库设计文件。这些文件通常包括数据库结构图、数据表设计文档,以及示例数据SQL脚本。用户可以通过这些文件快速搭建项目所需的数据库环境,并了解各个数据表之间的关系和作用。 详细的开发文档:每个资源包都附有详细的开发文档,文档内容包括项目背景介绍、功能模块说明、系统流程图、用户界面设计以及关键代码解析等。这些文档为用户提供了深入的学习材料,使得即便是从零开始的开发者也能逐步掌握项目开发的全过程。 项目演示与使用指南:为帮助用户更好地理解和使用这些ASP项目,每个资源包中都包含项目的演示文件和使用指南。演示文件通常以视频或图文形式展示项目的主要功能和操作流程,使用指南则详细说明了如何配置开发环境、部署项目以及常见问题的解决方法。 毕业设计参考:对于正在准备毕业设计的学生来说,这些资源包是绝佳的参考材料。每个项目不仅功能完善、结构清晰,还符合常见的毕业设计要求和标准。通过这些项目,学生可以学习到如何从零开始构建一个完整的Web系统,并积累丰富的项目经验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值