import requests
from bs4 import BeautifulSoup
# 爬取飞猪IP免费代理
class SpiderApp:
# 初始化属性
def __init__(self):
# 地址、头部、请求对象、解析对象
self.url = "https://www.feizhuip.com/?source=baidu&keyword=feizhuIP"
self.head = {"user-agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36"}
self.req = requests
self.bs = BeautifulSoup
# 存储page1中的路径和标题
self.href_list = []
# 响应对象
self.response = ""
# 请求第一级页面:获取二级页面的路径和标题
def sendReqPage1(self):
# 1 发起请求
self.response = self.req.get(url=self.url,headers=self.head)
# 2 查看状态
print("
飞猪爬虫项目
最新推荐文章于 2025-02-03 23:09:43 发布
该博客介绍了如何使用Python进行网络爬虫,具体目标是抓取飞猪网站上的免费IP代理信息。首先,通过requests和BeautifulSoup库发起HTTP请求并解析HTML页面,获取一级页面的IP代理链接。然后,遍历这些链接,请求二级页面,进一步提取代理IP、端口、评分等详细信息,并将数据写入文件。整个过程包括了网页请求、响应处理、HTML解析以及数据存储等步骤。
订阅专栏 解锁全文

1314

被折叠的 条评论
为什么被折叠?



