爬虫学习(一)

爬虫概念

是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,简单来说就是一个网络机器人,是一个程序

爬虫执行流程

1.提交url给网站服务器,服务器会响应一个信息给客户端
2.解析网页(提取我们需要的有用信息)
3.保存信息,保存到文本文档,mysql数据库,EXCEL

爬虫分类

  • 1.通用网络爬虫: 由种子url扩展到整个web
    策略:深度优先,广度优先
  • 2.聚焦网络爬虫:爬取某个主题的网页
  • 3.增量式网络爬虫: 监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据
  • 4.深层网络爬虫: 需要模拟提交表单
    表层网页:不需要提交表单,使用静态的链接就能够到达的静态网页​​​​​​​​​​​​​​
    深层网页:隐藏在表单后面,不能通过静态链接直接获得,是需要提交一定的关键词之后才能够获取得到的网页。

爬虫的合法性

遵循robots.txt协议
这个文件通常在网站根目录存放,如百度的就在https://www.baidu.com/robots.txt存放

[外链图片转存失败(img-p7NJKh45-1564032734184)(https://raw.githubusercontent.com/kevinlu98/cloudimg/master/data/QQ20190725-092440@2x.png)]

反爬虫

顾名思义: 就是防止网络爬虫
策略:

  • 1.通过User-Agent检验反爬
  • 2.通过访问频率反爬(睡眠库:time库)
  • 3.通过验证码反爬
  • 4.通过变换网页结构
  • 5.通过账号权限反爬

##对应反爬取策略

1.模拟User-Agent
2.调整频度
3.使用代理ip
4.模拟登陆
5.结构变换前,爬取所有信息

我们的第一个爬虫程序

环境准备

  • 创建虚拟环境,以conda为例
    conda create --name=spider python=3.6
  • 虚拟环境创建成功后,激活虚拟环境
    source activate spider
    此时你终端上会显示当前虚拟环境的名称

原生urllib3库的方式

  • 如果没有urllib3可以通过在虚拟环境中执行pip install urllib3安装

    # @File:    code01.py
    # @Author:  lengwen
    # @Time:    2019-07-25 09:46
    # @Desc:    使用原生urllib3库的方式进行爬虫
    import urllib3
    # 生成一个HTTP请求对象, 由该对象处理与线程池的连接以及线程安全的所有细节
    http = urllib3.PoolManager()
    # 发送HTTP请求
    resp = http.request(url='http://www.163.com',method='get')
    # 打印响应对象
    print(resp)
    # 打印响应状态码
    print(resp.status)
    # 打印响应数据
    print(resp.data)
    

    输出结果

    [外链图片转存失败(img-4jndSieD-1564032734186)(https://raw.githubusercontent.com/kevinlu98/cloudimg/master/data/QQ20190725-095658@2x.png)]
    可以看到我们响应数据是字节数据,我们需要对其进行解码
    我们可以注意到在返回数据中有这么一句话,对HTML有了解的同学应该知道在编写网页的时候在head中需要指定其编码(当然后面有专门的库用来获取编码),也就是说我们可以通过gbk对其进行解码

    完整程序

    # @File:    code01.py
    # @Author:  lengwen
    # @Time:    2019-07-25 09:46
    # @Desc:    使用原生urllib3库的方式进行爬虫
    import urllib3
    # 生成一个HTTP请求对象, 由该对象处理与线程池的连接以及线程安全的所有细节
    http = urllib3.PoolManager()
    # 发送HTTP请求
    resp = http.request(url='http://www.163.com',method='get')
    # 打印响应对象
    print("响应对象")
    print(resp)
    # 打印响应状态码
    print("状态码")
    print(resp.status)
    # 打印响应数据
    # print("响应数据")
    # print(resp.data)
    # 解码
    data = resp.data.decode('gbk')
    print("解码后的数据")
    print(data)
    

    结果

    [外链图片转存失败(img-rbxgvrFA-1564032734187)(https://raw.githubusercontent.com/kevinlu98/cloudimg/master/data/QQ20190725-100224@2x.png)]

我们的第一个爬虫程序结束,希望对大家有所帮助

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
SQLAlchemy 是一个 SQL 工具包和对象关系映射(ORM)库,用于 Python 编程语言。它提供了一个高级的 SQL 工具和对象关系映射工具,允许开发者以 Python 类和对象的形式操作数据库,而无需编写大量的 SQL 语句。SQLAlchemy 建立在 DBAPI 之上,支持多种数据库后端,如 SQLite, MySQL, PostgreSQL 等。 SQLAlchemy 的核心功能: 对象关系映射(ORM): SQLAlchemy 允许开发者使用 Python 类来表示数据库表,使用类的实例表示表中的行。 开发者可以定义类之间的关系(如一对多、多对多),SQLAlchemy 会自动处理这些关系在数据库中的映射。 通过 ORM,开发者可以像操作 Python 对象一样操作数据库,这大大简化了数据库操作的复杂性。 表达式语言: SQLAlchemy 提供了一个丰富的 SQL 表达式语言,允许开发者以 Python 表达式的方式编写复杂的 SQL 查询。 表达式语言提供了对 SQL 语句的灵活控制,同时保持了代码的可读性和可维护性。 数据库引擎和连接池: SQLAlchemy 支持多种数据库后端,并且为每种后端提供了对应的数据库引擎。 它还提供了连接池管理功能,以优化数据库连接的创建、使用和释放。 会话管理: SQLAlchemy 使用会话(Session)来管理对象的持久化状态。 会话提供了一个工作单元(unit of work)和身份映射(identity map)的概念,使得对象的状态管理和查询更加高效。 事件系统: SQLAlchemy 提供了一个事件系统,允许开发者在 ORM 的各个生命周期阶段插入自定义的钩子函数。 这使得开发者可以在对象加载、修改、删除等操作时执行额外的逻辑。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值