很简单,这里是根据网友的求助爬取的安居客上的一个页面的全部地区名称跟链接
因为她用的scrapy框架,感觉有些大才小用了,所以就直接用了一个requests库,selenium 和xpath进行一整页数据的爬取
获取的内容:包括地区名,地区链接:
1 一开始直接用requests库进行网站的爬取,会访问不到数据的, 会直接出现 访问的页面出现错误的信息。(ps:这里就暂时不打印出来了。)
2 因为一直报错,脑瓜子不知道怎么的就想到了selenium 这个框架,可能是爬安居客之前用selenium 爬取了天猫的商品内容吧。
3 selenium 的使用,我的博客上有说过:
http:/blog.csdn.net/xudailong_blog/
4 现在贴上代码片段:
# -*- coding: utf-8 -*-
# @Time : 2017/9/19 21:36
# @Author : 蛇崽
# @Email : 17193337679@163.com
# @File : anjuke.py 安居客房产网
import requests
import re
from bs4 import BeautifulSoup
import csv