【从零开始学爬虫】采集收视率排行数据

122 篇文章 2 订阅
117 篇文章 0 订阅

l 采集网站

​【场景描述】采集收视率排行数据。

【源网站介绍】收视率排行网提供收视率排行,收视率查询,电视剧收视率,综艺节目收视率和电视台收视率信息。

【使用工具】前嗅ForeSpider数据采集系统

【入口网址】http://www.tvtv.hk/archives/category/tv

【采集内容】

采集收视率排行网上省级卫视收视率数据,采集字段:标题、发布时间、排行内容。

【采集效果】

如下图所示:

l 思路分析

配置思路概览:

l 配置步骤

一.新建采集任务

选择【采集配置】,点击任务列表右上方【+】号可新建采集任务,将采集入口地址填写在【采集地址】框中,【任务名称】自定义即可,点击下一步。

二. 模板配置

1. 翻页链接采集配置

①查找翻页链接及其规律

在入口地址页内打开“F12”,按如下步骤找到翻页地址,并复制刷新后的翻页链接地址

对比观察翻页链接的规律观察:随着翻页变化,页码数与请求网址(Requestrian URL)中“page/”后的数字相关。所以,其规律为:http://www.tvtv.hk/archives/category/tv/page/+翻页页码

找到翻页链接位置及其规律就可以对应去编写脚本。

②脚本的创建与编写

【脚本的创建与编写】

脚本文本:

url u;

for ( var i=1;i<=165;i++){

u.title ="第"+i+"页";//页码

u.urlname = "http://www.tvtv.hk/archives/category/tv/page/"+i;

u.tmplid = 1; //模板关联

u.entryid = CHANN.id;

RESULT.AddLink(u,"","");

}

③查看采集预览

查看采集预览,并将链接粘贴到浏览器验证一下是否采集正确。

【采集预览】

2. 列表链接抽取配置

①添加链接抽取,更名为列表链接

②点击脚本窗口

③新建脚本

④编写列表链接抽取脚本

脚本文本:

var sta=DOM.FindClass("page-header","header",0);//定位到header标签

var list=sta.next;//定位下一子标签

while(list) {

var link=DOM.FindClass("entry-header","header",list);//定位到header标签

var linkin=link.child.child.child.child.next.child.child.child;//定位到列表链接所在标签

url u;//定义一个url

u.title = DOM.GetTextAll(link);//取标题

u.urlname =linkin.href;//取列表链接

u.entryid = this.id;

u.tmplid =2;//关联数据抽取模板

link=link.next;

list=list.next;

RESULT.AddLink(u,"","");//传递链接

}

⑤据观察发现,列表链接规律为:http://www.tvtv.hk/archives/而翻页链接规律为:http://www.tvtv.hk/archives/category/tv/page/此处则可以用地址过滤排除翻页链接,如图;然后复制任意一个列表链接到浏览器打开验证

3. 数据抽取

①新建模板、添加数据抽取

如下新建模板并添加数据抽取,在示例地址框内输入上一步复制的列表链接

【新建模板、添加数据抽取】

②数据表结构创建

如下在表结构内创建出所需采集的字段

【创建表结构】

③关联表单

数据抽取关联数据结构表单

【关联表单】

④创建并编写数据抽取脚本

如下创建脚本,并根据网页结构编写数据抽取脚本

【脚本的创建与编写】

脚本文本:

record re;//定义一个record记录集

var name=DOM.FindClass("entry-header","header",0);//定位到header标签

var cont=DOM.FindClass("entry-content","div",0);//定位到div标签

re.title=DOC.GetDom().GetTextAll(name.child);//取标题文本

re.time_sub=DOC.GetDom().GetTextAll(name.child.next.child);//取时间文本

re.content=DOC.GetDom().GetTextAll(cont).Right("排名");//取排名文本

re.id=MD5(URL.urlname) ;//id

RESULT.AddRec(re,this.schemaid);//输出结果

⑤查看采集预览

查看采集预览,并核对一下内容是否采集正确。

【采集预览】

l 采集步骤

三、数据采集

1.建立数据表单:

选择【数据建表】,点击【表单列表】中该模板的表单,在【关联数据表】中选择【创建】,表名称自定义,这里命名为【shoushilv】(注意命名不能用数字、文字和特殊符号),点击【确定】。创建完成,勾选数据表,并点击右上角保存按钮。

【建立关联数据表】

2.开始采集

选择【数据采集】,勾选任务名称,点击【开始采集】,则正式开始采集。

【开始采集】

3.导出数据

采集结束后,可以在【数据浏览】中,选择数据表查看采集数据,并可以导出数据。

【数据浏览】

【数据导出】

4.导出的文件打开如下图所示:

【查看导出数据】

本教程仅供教学使用,严禁用于商业用途!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
解锁网络数据的宝藏:Python爬虫工具与教程集合 一、探索网络信息的无限宝藏 在互联网的海洋中,蕴藏着海量的有价值信息。如何合法、高效地获取这些信息?Python爬虫工具与教程为您揭开这一神秘面纱。通过这些资源,您可以轻松地爬取网站信息,提取所需内容,为各种应用场景提供强大的数据支持。 二、资源亮点 工具齐全:提供一系列功能强大的Python爬虫工具,满足您不同场景下的需求。 教程详尽:配套的Python爬虫教程,从基础到进阶,让您逐步掌握爬虫的核心技术。 合法合规:严格遵守法律法规和网站使用协议,确保采集行为合法,尊重网站权益。 实战项目:结合实际案例,让您在实践中掌握Python爬虫的运用,真正做到以致用。 三、适用人群 无论您是数据分析师、网络开发者还是对Python爬虫感兴趣的爱好者,这些资源都将为您的习和实践提供有力的支持。 四、使用建议 按需选择工具与教程:根据实际需求选择合适的工具和教程,确保习与实践的有效性。 遵守法律法规与协议:在使用这些资源进行爬取活动时,务必遵守相关法律法规和网站的使用协议。 持续习与更新:随着网络技术的不断进步,Python爬虫技术也在不断发展。建议您持续关注相关动态,提升自己的技能水平。 五、安全与责任 尊重网站权益:避免对目标网站的正常运行造成干扰或损害,合理使用资源。 隐私保护:在采集数据时,严格遵守隐私保护法规,不泄露或滥用用户个人信息。 风险防范:了解并应对潜在的网络威胁,采取相应措施降低风险。 感谢您选择我们的Python爬虫工具与教程集合!让我们一起挖掘网络信息的宝藏,为您的工作和研究注入新的活力!请务必遵守法律法规和网站使用协议,共同维护网络数据的合法采集与利用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值