随着最近几年电商的风生水起,越来越多的企业专注海外电商市场,从而导致数据抓取的需求变得越来越多。网页的数据抓取可用于不同字段中的评估或预测。在这里我来说一说关于API代理高效快速的抓取目标网站数据的实操案例。
一种是直接抓取网页源码
优点是速度快。正由于速度快,很容易被目标网站限制当前IP登录抓取,所以针对封IP,可以使用API代理写入代码来解决。正常来说大型的网站做数据抓取,对技术功底要求十分苛刻,而且要辅助API代理完成网页数据抓取。
第二种是模拟浏览器操作
说白了就是模拟真实用户的操作手法,这样来说能有效的规避目标网站的检测。
就算是经过了多层加密的,也不需要考虑其加密算法。最终可以获取目标网站的实时动态。
那么我就例举一种API代理使用步骤和大家谈谈具体的操作。
1、这里的ip:port是固定的,也可以每个用户密码对应的端口都不同。
2、同时需要大量在线的ip,则需提取对应数量的隧道IP。
3、对应每个代理IP,请求一次,更换一次IP
简单测试方法:
- curl -x test_012:AJNm6676Duuw1@43.154.32.111:20000 http://myip.top/
可使用端口20000-40000 curl 安装文档:https://www.likecs.com/show-205279358.html
-
例如python:
#! -- encoding:utf-8 --
import requests
# 要访问的目标页面
targetUrl = “http://myip.top/” //目标网址
# 代理服务器
proxyHost = “43.154.32.111” //服务器地址
proxyPort = “20000” //端口
# 代理隧道验证信息
proxyUser = “test_012” //用户名
proxyPass = “AJNm6676Duuw1” //密码
proxyMeta = “http://%(user)s:%(pass)s@%(host)s:%(port)s” % {
“host” : proxyHost,
“port” : proxyPort,
“user” : proxyUser,
“pass” : proxyPass,
}
proxies = {
“http” : proxyMeta,
“https” : proxyMeta,
}
resp = requests.get(targetUrl, proxies=proxies)
print resp.status_code
print resp.text