import csv
import requests
from fake_useragent import UserAgent # 确保你已经安装了fake_useragent库
from lxml import etree
# 打开CSV文件以写入数据
with open('zufang.csv', mode='w', newline='', encoding='utf-8') as f:
writer = csv.DictWriter(f, fieldnames=['地区', '小区', '简介', '月租'])
writer.writeheader()
# 创建一个UserAgent对象
ua = UserAgent()
# 循环抓取每一页的数据
for page in range(1, 10):
url = f"https://bj.lianjia.com/zufang/pg{page}/"
headers = {"User-Agent": ua.random}
try:
# 发送GET请求
response = requests.get(url, headers=headers)
response.raise_for_status() # 如果响应状态码不是200,就主动抛出异常
# 解析HTML内容
html = etree.HTML(response.text)
data = html.xpath('//div[@class="content__list--item"]') # 注意:类名可能已经改变,需要检查实际的HTML结构
# 遍历每个房源,提取信息并写入CSV文件
for item in data:
d = {}
d['地区'] = item.xpath('.//p[@class="content__list--item--des"]/a[1]/text()')[0].strip() if item.xpath('.//p[@class="content__list--item--des"]/a[1]/text()') else ''
d['小区'] = item.xpath('.//p[@class="content__list--item--des"]/a[3]/text()')[0].strip() if item.xpath('.//p[@class="content__list--item--des"]/a[3]/text()') else ''
d['简介'] = ''.join(item.xpath('.//p[@class="content__list--item--des"]/text()')).strip() if item.xpath('.//p[@class="content__list--item--des"]/text()') else ''
d['月租'] = item.xpath('.//span[@class="content__list--item-price"]/em/text()')[0].strip() if item.xpath('.//span[@class="content__list--item-price"]/em/text()') else ''
# 写入CSV文件
writer.writerow(d)
print(d)
except requests.RequestException as e:
print(f"网络请求错误: {e}")
except Exception as e:
print(f"发生错误: {e}")
print("[*]任务完成,房屋数据保存成功!")
保存到docs中,保存到excle中。