爬虫知识超详细讲解(零基础入门,老年人都看的懂)

1.爬虫是什么?

网络爬虫是一种按照一定的规则、自动的抓取万维网信息的脚本或者程序

简单来说:爬虫是用事先写好的程序去抓取网络上的数据,这样的程序叫爬虫

2.爬虫的分类

按照使用场景来分,可以分为两类:通用爬虫 和 聚焦爬虫

通用爬虫:搜索引擎爬虫(百度)

聚焦爬虫:获取想要的数据

3.爬虫就是在模仿人类的操作

4.爬虫的知识体系和相关工具(必须掌握)

 1.概念
        利用HTTP协议,从网站采集、提取数据的过程
    2.知识结构及路线图
        1)web前端
            (1)HTML
            (2)CSS  层级样式表
            (3)JS
        2)HTTP超文本传输协议
        3)Python语言
        4)HTTP编程
            (1)Python标准库:urllib
            (2)第三方库:requests(需要安装、下载)
        5)数据采集
            (1)文本类型
            (2)图片
            (3)媒体文件(e.g. :音乐、视频)
        6)数据提取
            (1)XPath
            (2)正则表达式
            (3)Beautiful Soup
        7)数据存储
            (1)文本文档
            (2)MySQL数据库
            (3)Excel
            (4)MongoBD数据库
            (5)Redis数据库
        8)反爬虫技术应用
            (1)图片验证码
            (2)滑块验证码
            (3)IP代理池
            (4)封装请求头
            (5)动态内容处理
                1>Ajax
                2>Selenium
            (6)JS加密
            (7)Cookie加密
            (8)CSS加密
            (9)Base64加密
        9)爬虫框架
            (1)Scrapy框架
                1>scrapy-redis分布式爬虫
            (2)pyspider框架
    3.工具
        1)环境
            (1)windows
            (2)Linux系统
        2)开发
            (1)Python
                1>pycharm
            (2)数据库
                1>MySQL
                2>MongolianDB
                3>Redis
            (3)浏览器
                1>谷歌浏览器
                2>火狐浏览器

5.HTTP请求

客户端--发送请求(request)-->服务器
客户端<--返回响应(response)--服务器

请求方式:get请求/post请求

get请求:会将请求的参数放到地址栏(URL)/网址后面,不安全

post请求:不会将请求的参数放到网址后面,相对安全

  • 7
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
Python爬虫是一种用于从网页上获取数据的技术。下面我将为您详细讲解如何使用Python进行爬虫。 第一步是安装Python和所需的库。您可以从Python官方网站下载并安装Python。常用的爬虫库包括BeautifulSoup、Requests和Scrapy。您可以使用pip命令来安装这些库,例如:pip install beautifulsoup4。 第二步是了解网页结构。在进行爬虫之前,您需要了解要爬取的网页的结构。可以通过查看网页源代码或使用开发者工具来查看网页元素和数据。 第三步是发送HTTP请求并获取网页内容。您可以使用Requests库来发送HTTP请求,并获取网页的HTML内容。示例代码如下: ```python import requests url = "https://www.example.com" response = requests.get(url) html_content = response.text ``` 第四步是使用BeautifulSoup库解析网页内容。BeautifulSoup库可以帮助您从HTML文档中提取所需的信息。示例代码如下: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, "html.parser") # 在这里使用BeautifulSoup提取所需的信息 ``` 第五步是处理提取到的数据。您可以根据需要对提取到的数据进行处理,例如保存到文件、存入数据库或进行进一步分析。 最后一步是设置爬虫的限制。在进行爬虫时,需要注意遵守网站的爬虫规则,如设置适当的请求频率、使用合适的User-Agent等。 以上就是Python爬虫的基本步骤和简要介绍。希望对您有所帮助!如果您有任何问题,请随时提问。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

....;

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值