爬虫限制(robots.txt)

需要注意的是,未经允许的爬虫行为可能违反网站的使用条款或法律法规。在进行网页爬取之前,建议先查看网站的Robots.txt文件以及相关的使用条款,并确保你的爬虫行为合法合规。

查看网站的Robots.txt文件,可以按照以下步骤进行:

1. 打开任意一个浏览器,进入要查看Robots.txt文件的网站。

2. 在网站的URL后面添加/robots.txt,例如:https://www.traveldaily.cn/robots.txt

3. 按下Enter键或者点击浏览器的前往按钮。

4. 浏览器会显示Robots.txt文件的内容,如果网站允许查看的话。

请注意,不是所有的网站都允许查看Robots.txt文件,有些网站可能会禁止公开访问。

Robots.txt文件:

https://www.traveldaily.cn/robots.txt

User-agent: *
Allow: /
Sitemap: https://www.traveldaily.cn/express.xml
Sitemap: https://www.traveldaily.cn/lastest.xml
Sitemap: https://www.traveldaily.cn/sitemap1.xml
Sitemap: https://www.traveldaily.cn/sitemap2.xml
Sitemap: https://www.traveldaily.cn/sitemap3.xml
Sitemap: https://www.traveldaily.cn/sitemap4.xml

用于指示搜索引擎爬虫访问网站的规则。在这个例子中,"User-agent: *"表示所有搜索引擎爬虫都适用以下规则。"Allow: /"表示允许爬虫访问网站的所有内容。

接下来是一系列的Sitemap指令,用于告诉搜索引擎网站的XML Sitemap文件的位置。Sitemap文件包含了网站的页面URL和其他相关信息,帮助搜索引擎更好地索引网站。在这个例子中,指定了五个Sitemap文件的位置。

总结起来,这个robots.txt文件告诉搜索引擎爬虫可以访问网站的所有内容,并提供了五个Sitemap文件的位置供搜索引擎索引网站。

https://hotels.ctrip.com/robots.txt

User-agent: Baiduspider
Disallow: /hotels/listPage?*
Disallow: /hotels/*?hotelId=
Disallow: /hotels/*-hotel-detail-*/
Disallow: /hotels/*-hotels-list-*/
Disallow: /*?*
Disallow: /hotels/*.html?*
Disallow: /flagship/*
Allow:    /flagship/*/*.html 
Allow: /hotels/*.html
Allow: /hotel/*
Allow: /brand/*
  • User-agent: Baiduspider 表示该规则适用于百度搜索引擎的爬虫。
  • Disallow: /hotels/listPage?* 表示不允许爬虫访问形如/hotels/listPage?xxx的页面。
  • Disallow: /hotels/*?hotelId= 表示不允许爬虫访问形如/hotels/xxx?hotelId=xxx的页面。
  • Disallow: /hotels/-hotel-detail- 表示不允许爬虫访问形如/hotels/xxx-hotel-detail-xxx的页面。
  • Disallow: /hotels/-hotels-list- 表示不允许爬虫访问形如/hotels/xxx-hotels-list-xxx的页面。
  • Disallow: /? 表示不允许爬虫访问任意带有问号的页面。
  • Disallow: /hotels/.html? 表示不允许爬虫访问形如/hotels/xxx.html?xxx的页面。
  • Disallow: /flagship/* 表示不允许爬虫访问形如/flagship/xxx的页面。
  • Allow: /flagship//.html 表示允许爬虫访问形如/flagship/xxx/xxx.html的页面。
  • Allow: /hotels/*.html 表示允许爬虫访问形如/hotels/xxx.html的页面。
  • Allow: /hotel/* 表示允许爬虫访问形如/hotel/xxx的页面。
  • Allow: /brand/* 表示允许爬虫访问形如/brand/xxx的页面。

参考:什么是robots文件?robots.txt该怎么写? - 知乎

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
应对robots.txt爬虫,首先我们需要了解网站的robots.txt文件的内容。这个文件可以通过在网站域名后加上/robots.txt来查看。其中,User-agent: *表示针对所有爬虫,而Disallow: /表示禁止爬取整个网站。其他的规则也可以根据实际情况进行限制。因此,为了应对robots.txt爬虫,我们需要遵守网站的规则,不爬取被禁止的页面和内容。尊重网站的规定是一个基本的原则,即使robots.txt只是一个君子协议,不能完全阻止你去爬取。但是良好的爬虫行为应该遵守规则,避免对网站造成过大的负担。在爬取网站之前,我们应该先查看该网站的robots.txt文件,了解哪些页面可以爬取数据,哪些页面禁止爬取数据。这样能够更好地进行爬取,避免触犯反爬虫策略。同时,我们也需要注意,爬取到的数据基本上都是用户可以看到的数据,但并不意味着所有爬取到的数据都可以用于商业用途。很多网站对爬取的数据有一定的限制。因此,在使用爬取到的数据时,我们需要遵循网站的规定和法律法规,确保数据的合法使用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [反爬虫的常见应对方法](https://blog.csdn.net/weixin_44769612/article/details/115344085)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值