Python爬虫(三)——Robots协议

Python爬虫(三)——Robots协议

Robots协议全称为Robots Exclusion Standard,网络爬虫排除标准。它的作用是告知网络爬虫哪些可以抓取哪些不可以。通常被放在网站根目录下的robots.txt。

注:并不是所有网站都有Robots协议,如果没有默认为内容都可以爬取。

基本语法

#*代表所有,/代表根目录
User-agent:*
Disallow:/
  • User-agent 限制的User-agent
  • Disallow 不允许访问的目录

使用

自动或人工识别robots.tst,再进行内容爬取。

你也可以不遵守robots.txt,但会产生风险。只有当你的程序不会对服务器产生威胁或者行为类似人类的时候可以不遵守robots.txt。这时候你获取的资源不能用于商业用途。

Python爬虫应用于抓取百度图片通常涉及使用第方库如`requests`, `BeautifulSoup` 或者 `Scrapy`框架。以下是基本步骤: 1. **导入所需库**: 首先,你需要安装`requests`库来发送HTTP请求,以及可能需要的如`bs4`(BeautifulSoup4)用于解析HTML内容。 ```python import requests from bs4 import BeautifulSoup ``` 2. **发送GET请求**: 使用`requests.get()`函数获取百度图片搜索结果的网页源码。 ```python url = 'https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&stc=1&fr=&sf=1&fmq=1689375560990_R&pv=&ic=0&nc=1&z=&word=' + keyword response = requests.get(url) ``` 这里`keyword`是你想要搜索的图片关键字。 3. **解析HTML**: 使用BeautifulSoup解析返回的HTML,找到包含图片URL的部分。这通常涉及到查找`<img>`标签的`src`属性。 ```python soup = BeautifulSoup(response.text, 'lxml') img_tags = soup.find_all('img', src=True) # 查找所有有src属性的<img>元素 ``` 4. **提取图片URL**: 循环遍历`img_tags`,提取每个图片链接。 ```python image_urls = [img['src'] for img in img_tags] ``` 5. **保存图片**: 可以使用`requests`库下载图片到本地,如果图片地址是HTTP的话。记得处理可能出现的网络错误。 ```python for url in image_urls: try: response = requests.get(url, stream=True) with open(f'{keyword}_{i}.jpg', 'wb') as f: for chunk in response.iter_content(chunk_size=1024): if chunk: # filter out keep-alive new chunks f.write(chunk) except Exception as e: print(f"Failed to download {url}: {e}") ``` 6. **注意事项**: - 爬虫操作需遵守百度的robots.txt规则,并尊重版权,合理使用抓取数据。 - 实际操作可能会遇到反爬虫策略,可能需要设置延迟、用户代理等。 - 如果需要大规模抓取,最好使用Scrapy等专业的爬虫框架。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值