Python爬虫:一些常用的爬虫技巧总结

本文总结了Python爬虫的一些常见技巧,包括基本的网页抓取(GET, POST)、使用代理IP、处理Cookies、伪装成浏览器、页面解析、验证码处理、gzip压缩以及多线程并发抓取。文中给出了相关代码片段,并提到了处理复杂验证码和gzip数据的方法。" 130854436,8753399,C++自旋锁实现详解,"['C++', '开发语言', '并发编程']
摘要由CSDN通过智能技术生成

用python也差不多一年多了,python应用最多的场景还是web快速开发、爬虫、自动化运维:写过简单网站、写过自动发帖脚本、写过收发邮件脚本、写过简单验证码识别脚本。

爬虫在开发过程中也有很多复用的过程,这里总结一下,以后也能省些事情。
1、基本抓取网页

get方法

import urllib2

url = "http://www.baidu.com"

response = urllib2.urlopen(url)

print(response.read())

post方法

import urllib

import urllib2

url = "http://abcde.com"

form = {'name':'abc','password':'1234'}

form_data = urllib.urlencode(form)

request = urllib2.Request(url,form_data)

response = urllib2.urlopen(request)

print(response.read())

2、使用代理IP

开发爬虫过程中经常会遇到IP被封掉的情况,这时就需要用到代理IP;所以想学的同学,有必要听一下这位老师的课、领取python福利奥,想学的同学可以到梦雅老师的围鑫(同音):前排的是:762,中间一排是:459,后排的一组是:510 ,把以上三组字母按照顺序组合起来即可,她会安排学习的。

在urllib2包中有ProxyHandler类,通过此类可以设置代理访问网页,如下代码片段&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值