python百度关键词爬虫_如何用python写爬虫来获取网页中所有的文章以及关键词

本文介绍了如何使用Python的urllib2库抓取网页内容,包括创建Request对象、发送GET和POST请求,以及设置HTTP头模拟浏览器行为。通过示例代码展示了如何获取和打印网页HTML,以及发送表单数据。
摘要由CSDN通过智能技术生成

展开全部

所谓网2113页抓取,就是把URL地址中指定的网络5261资源从网络流中读取出来,保存到本地4102。

类似于使用程序模拟1653IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。

在Python中,我们使用urllib2这个组件来抓取网页。

urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。

它以urlopen函数的形式提供了一个非常简单的接口。

最简单的urllib2的应用代码只需要四行。

我们新建一个文件urllib2_test01.py来感受一下urllib2的作用:

import urllib2

response = urllib2.urlopen('http://www.baidu.com/')

html = response.read()

print html

按下F5可以看到运行的结果:

resize,m_lfit,w_600,h_800,limit_1

我们可以打开百度主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。

也就是说,上面这四行代码将我们访问百度时浏览器收到的代码们全部打印了出来。

这就是一个最简单的urllib2的例子。

除了"http:",URL同样可以使用"ftp:","file:"等等来替代。

HT

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值