Python---网络爬虫初识


1. 网络爬虫介绍

来自wiki的介绍:

网络爬虫(英语:web crawler),也叫网上蜘蛛(spider),是一种用来自动浏览万维网的网络机器人。

但是我们在写网络爬虫时还要注意遵守网络规则,这样才能是我么使我们更好的利用其中的资源

爬虫访问网站的过程会消耗目标系统资源。不少网络系统并不默许爬虫工作。因此在访问大量页面时,爬虫需要考虑到规划、负载,还需要讲“礼貌”。 不愿意被爬虫访问、被爬虫主人知晓的公开站点可以使用robots.txt文件之类的方法避免访问。这个文件可以要求机器人只对网站的一部分进行索引,或完全不作处理。

虽然robots.txt只是一种网站主人对爬虫爬取的一种声明,但是博主希望大家可以遵守。

2. 爬虫流程

在此之后我们所用的都是python3.x,python2.x的另找其他。

基本流程:

  1. 使用request库获取目标url的html文档
  2. 使用浏览器打开网页源代码分析其中的元素节点
  3. 通过Beautiful Soup库或正则表达式获得想要的数据
  4. 将数据保存到本地或者数据库

3. requests库的安装

在cmd中,通过如下指令安装:

pip install requests

在pythonzh检验是否安装成功

import requests

介绍:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值