robots.txt与sitemap

import urllib.robotparser as urobot
import requests

url="https://www.taobao.com"
rp=urobot.RobotFileParser()
rp.set_url(url+'/robots.txt')
rp.read()
user_agent='Baiduspider'
if rp.can_fetch(user_agent,'http://www.taobao.com/product/'):
    site = requests.get(url)
    print('try victory')
else:
    print('cannot scrap because robots.text banned you')

做一次robot.txt的尝试。先创建一个rp对象并且作为RobotFileParser对象,rp.set_url()即在成为rfp对象后给这个对象set_url,之后可直接read。
使用了一个rp.can_fetch(agent, url) ,返回布尔值。
真正实现时,应加一个循环语句来不断检测新的网页,类似于

for i in urls:
	try:
		ir rp.can_fetch('*',newurl):
			site = urllib.request.urlopen(newyrl)  #在fetch成功时,开始爬取
			...
		except:
			...

站点地图Sitemap是robots.txt有时会定义的,他在SEO search engine optimization 搜索引擎优化 中扮演了重要角色。
Sitemap有助于访问者或搜索引擎爬虫快速找到网站中某个页面。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值