Python爬虫 教程:IP池的使用,2024Python常见面试题分享

本文介绍了如何在Python爬虫中构建和使用IP池,包括从西刺网站抓取代理IP、测试IP可用性,并将IP保存至文件。此外,还涉及了如何使用收费代理API以及处理私密代理的语法结构。文中提供了相关代码示例,有助于爬虫开发者提升抓取效率。
摘要由CSDN通过智能技术生成

随机生成User-Agent

def get_random_ua(self):

ua = UserAgent() # 创建User-Agent对象

useragent = ua.random

return useragent

从西刺代理网站上获取随机的代理IP

def get_ip_file(self, url):

headers = {‘User-Agent’: self.get_random_ua()}

html = requests.get(url=url, proxies=self.proxies, headers=headers, timeout=5).content.decode(‘utf-8’, ‘ignore’)

parse_html = etree.HTML(html)

tr_list = parse_html.xpath(‘//tr’) # 基准xpath,匹配每个代理IP的节点对象列表

for tr in tr_list[1:]:

ip = tr.xpath(‘./td[2]/text()’)[0]

port = tr.xpath(‘./td[3]/text()’)[0]

self.test_proxy_ip(ip, port) # 测试ip:port是否可用

测试抓取的代理IP是否可用

def test_proxy_ip(self, ip, port):

proxies = {

‘http’: ‘http://{}:{}’.format(ip, port),

‘https’: ‘https://{}:{}’.format(ip, port), }

test_url = ‘http://www.baidu.com/’

try:

res = requests.get(url=test_url, proxies=proxies, timeout=8)

if res.status_code == 200:

print(ip, “:”, port, ‘Success’)

with open(‘proxies.txt’, ‘a’) as f:

f.write(ip + ‘:’ + port + ‘\n’)

except Exception as e:

print(ip, port, ‘Failed’)

def main(self):

for i in range(1, 1001):

url = self.url.format(i)

self.get_ip_file(url)

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值