python爬虫基础简单知识笔记一

这篇笔记介绍了Python爬虫的基础知识,包括如何判断网页是否允许爬虫,如以大众点评网为例;抓取网站的cookie,以百度为例;异常处理,如通过e.code获取异常状态信息,并使用requests库进行响应状态判断;设置代理以应对网站反爬策略;超时设置,确保请求响应时间的合理性;以及处理需要身份验证的网页。适合初学者了解爬虫的基本操作。
摘要由CSDN通过智能技术生成

日期:2020-11-25笔记

1.判断网页是否允许爬虫
大众点评网为例

from urllib.robotparser import RobotFileParser
rp=RobotFileParser()
rp.set_url('http://www.dianping.com/')
rp.read()
print(rp.can_fetch('*','http://www.dianping.com/'))

2.抓取网站cookie
百度为例

import http.cookiejar,urllib.request

cookie=http.cookiejar.CookieJar()
handler=
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值