【从零开始学爬虫】采集全国各地历年房价数据

122 篇文章 2 订阅
117 篇文章 0 订阅

l 采集网站

【场景描述】采集全国各地历年房价数据。

【源网站介绍】58同城—国内专业的“本地、免费、真实、高效”生活服务平台!

【使用工具】前嗅ForeSpider数据采集系统,免费下载:

http://www.forenose.com/view/commodity/forespider.html

【入口网址】

https://www.58.com/fangjiawang/

【采集内容】

采集58同城上全国各省份历年房价数据。 

【采集效果】

如下图所示:

l 思路分析

配置思路概览:

l 配置步骤

1.新建采集任务

选择【采集配置】,点击任务列表右上方【+】号可新建采集任务,将采集入口地址填写在【采集地址】框中,【任务名称】自定义即可,点击下一步。

2.获取年份链接

采用链接过滤的方法来抽取年份链接,具体如下所示:
①点击采集预览,先观察年份链接规律,找到规律,很明显年份链接中都包含:https://www.58.com/fangjiawang/quanguo-

②设置地址过滤,过滤包含“https://www.58.com/fangjiawang/quanguo-”的链接,这样就把年份链接过滤出来了。

3.获取城市链接

①新建模板02,在其下新建一个链接抽取模板,具体操作如下所示:

②将模板01中的链接抽取,关联到模板02中去,如下图所示:

③采集预览,如下图所示,观察各省份链接规律,发现链接规律为:https://www.58.com/fangjiawang/sheng-年份-编码/。

④地址过滤包含:https://www.58.com/fangjiawang/sheng-\d-\d/的链接,其中\d表示一串数字串,即可把所需要的省份链接过滤出来。

4.抽取房价数据

①新建模板03,在其下新建一个数据抽取模板,具体操作如下所示:

②数据建表,按照下图所示建数据表。(注意字段属性等应严格按照下图进行设置)

③将新建好的数据表,关联到模板中去,如下图所示:

④填写示例地址

采集预览,复制任意一条省份的链接。

⑤将链接粘贴到本模板示例地址中,并双击内置浏览器空白部分,加载本链接。

⑥关联模板

将模板省份链接抽取模板关联模板03,如下图所示:

⑦识别列表

选择数据抽取模板,然后如下图所示,识别列表。

发现降价地区的数据均被选中。

⑧数据取值

使用定位取值和数据清洗的方法,year_字段如下所示:

city字段如下所示:

price字段如下所示:

rate字段如下所示:

⑧采集预览

采集预览如下图所示,说明配置成功,可以开始采集。如果有哪个字段或者数据没有出来,再次检查之前配置,正确配置模板。

⑨由于在第⑦步识别列表中,仅识别了房价下降的地区的数据,所以再建一个数据抽取,来识别房价上升的地区的数据。

⑩操作步骤同上,获取房价上升的地区的数据。配置好后采集预览,如下所示:

l 采集步骤

模板配置完成,采集预览没有问题后,可以进行数据采集。

①建立数据表单:

选择【数据建表】,点击【表单列表】中该模板的表单,在【关联数据表】中选择【创建】,表名称自定义,这里命名为【quanguofangjia】(注意命名不能用数字和特殊符号),点击【确定】。创建完成,勾选数据表,并点击右上角保存按钮。

②开始采集

选择【数据采集】,勾选任务名称,点击【开始采集】,则正式开始采集。

③导出数据

采集结束后,可以在【数据浏览】中,选择数据表查看采集数据,并可以导出数据。

④导出的文件打开如下图所示:

本教程仅供教学使用,严禁用于商业用途!

l 前嗅简介

前嗅大数据,国内领先的研发型大数据专家,多年来致力于为大数据技术的研究与开发,自主研发了一整套从数据采集、分析、处理、管理到应用、营销的大数据产品。前嗅致力于打造国内第一家深度大数据平台!

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
解锁网络数据的宝藏:Python爬虫工具与教程集合 一、探索网络信息的无限宝藏 在互联网的海洋中,蕴藏着海量的有价值信息。如何合法、高效地获取这些信息?Python爬虫工具与教程为您揭开这一神秘面纱。通过这些资源,您可以轻松地爬取网站信息,提取所需内容,为各种应用场景提供强大的数据支持。 二、资源亮点 工具齐全:提供一系列功能强大的Python爬虫工具,满足您不同场景下的需求。 教程详尽:配套的Python爬虫教程,从基础到进阶,让您逐步掌握爬虫的核心技术。 合法合规:严格遵守法律法规和网站使用协议,确保采集行为合法,尊重网站权益。 实战项目:结合实际案例,让您在实践中掌握Python爬虫的运用,真正做到以致用。 三、适用人群 无论您是数据分析师、网络开发者还是对Python爬虫感兴趣的爱好者,这些资源都将为您的习和实践提供有力的支持。 四、使用建议 按需选择工具与教程:根据实际需求选择合适的工具和教程,确保习与实践的有效性。 遵守法律法规与协议:在使用这些资源进行爬取活动时,务必遵守相关法律法规和网站的使用协议。 持续习与更新:随着网络技术的不断进步,Python爬虫技术也在不断发展。建议您持续关注相关动态,提升自己的技能水平。 五、安全与责任 尊重网站权益:避免对目标网站的正常运行造成干扰或损害,合理使用资源。 隐私保护:在采集数据时,严格遵守隐私保护法规,不泄露或滥用用户个人信息。 风险防范:了解并应对潜在的网络威胁,采取相应措施降低风险。 感谢您选择我们的Python爬虫工具与教程集合!让我们一起挖掘网络信息的宝藏,为您的工作和研究注入新的活力!请务必遵守法律法规和网站使用协议,共同维护网络数据的合法采集与利用。
习Python网络爬虫可以分为以下几个步骤: 1. 习Python基础知识:掌握Python的基本语法、变量、数据类型、函数、模块、文件操作等知识。 2. 习HTTP协议和HTML语言:了解HTTP协议和HTML语言的基本知识,包括HTTP请求和响应、HTML标签和结构等。 3. 爬虫框架和库:习使用Python中的爬虫框架和库,如requests、Beautiful Soup、Scrapy等。 4. 爬取网页数据:通过爬虫框架和库,编写Python脚本实现爬取网页数据的功能,如获取网页源代码、解析HTML结构、提取数据等。 5. 存储和处理数据:将爬取到的数据存储到本地文件或数据库中,并进行数据处理和分析。 以下是具体的习步骤: Step 1:习Python基础知识 推荐习资料:《Python编程快速上手》、《Python基础教程》等。 Step 2:习HTTP协议和HTML语言 推荐习资料:《图解HTTP》、《HTML和CSS设计和构建网站》等。 Step 3:爬虫框架和库 推荐习资料:官方文档、《Python爬虫开发与项目实战》等。 Step 4:爬取网页数据 以爬取豆瓣电影Top250为例,以下是一个简单的Python爬虫: ```python import requests from bs4 import BeautifulSoup url = 'https://movie.douban.com/top250' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') movies = soup.find_all('div', class_='hd') for movie in movies: print(movie.a.span.text) ``` 该爬虫使用requests库发送HTTP请求,使用Beautiful Soup库解析HTML结构,获取豆瓣电影Top250的电影名。 Step 5:存储和处理数据 可使用Python内置的文件操作函数或第三方库如pandas、numpy等对爬取到的数据进行存储和处理。 以上是从零开始习Python网络爬虫的基本步骤,希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值