puython爬虫基础(一)

本文介绍了Python爬虫的基础知识,包括利用urllib2获取网页源码,探讨了直接获取数据可能暴露IP的问题。接着讲解了User-Agent的概念,用于伪装客户端请求,避免被识别。推荐使用工具进行抓包,并展示了如何抓取和修改User-Agent。最后,通过实例讲解了GET请求的使用,以及爬取贴吧页面的基本思路。
摘要由CSDN通过智能技术生成

首先我们先学会urllib2的类库的使用

 下面是代码

返回的数据就是网站的源码,下面是一部分

看到百度一下我就只知道我们成功了

这样虽然能直接获得网页源码可是也暴露除了我们的ip,对于我们以后的开发不利

我们都知道用户每一次访问网页的时候都会先上代理服务器发送然后在由代理服务器向网站服务器发送,然后依次传到用户端上,这时就有了怎区别服务器返回的数据一定是你的呢,这时候就出现了userAgent的概念,学javaee的都知道,我们每一次访问网站客户端都会想服务端发送一个请求头,把一些必要的信息交给服务器,这个useragent就在这请求头中,

详细信息请参考这篇文章

这里我用了一个工具叫做

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值