python爬虫-基础入门-爬取整个网站《1》

python爬虫-基础入门-爬取整个网站《1》

描述:

  使用环境:python2.7.15 ,开发工具:pycharm,现爬取一个网站页面(http://www.baidu.com)所有数据。

python代码如下:

 1 # -*- coding:  utf-8 -*-
 2 
 3 import urllib2
 4 
 5 def baiduNet() :
 6 
 7     request = urllib2.Request("http://www.baidu.com")
 8     response = urllib2.urlopen(request)
 9     netcontext = response.read()
10 
11     file = open("baidutext.txt","w")
12     file.write(netcontext)
13 
14 
15 if __name__ == "__main__" :
16     baiduNet()

 

执行后baidutext.txt数据,部分截图如下:

 

打开浏览器,访问百度,鼠标右键页面,查看源代码,如下:

 

使用代码爬取到的页面数据和源网站页面数据是一样的,爬取网页成功。

 

如有问题,欢迎纠正!!!

如有转载,请标明源处:https://www.cnblogs.com/Charles-Yuan/p/9903221.html

 

转载于:https://www.cnblogs.com/Charles-Yuan/p/9903221.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值