Python之网络爬虫(爬虫基本认知、网络爬虫之路)

一、爬虫基本认知

1、爬虫的简单定义
网络爬虫,又称为网页蜘蛛、蚂蚁、蠕虫、模拟程序,在FOAF社区中,被称为二王爷追逐者。是一种按照一定的规则,自动抓取万维网信息的程序或者脚本。简单来说,网络爬虫就是使用事先写好的程序去抓取网络上所需要的数据。

2、通用网络爬虫
搜索引擎的第一步就是爬虫,但是搜索引擎中的爬虫是一种广泛获取各种网页信息的程序,除了HTML文件外,搜索引擎通常还会抓取和索引文字为基础的多种文件类型,如TXT,WORD,PDF等。但是对于图片, 视频,等非文字的内容则一般不会处理,并且对于脚本和一些网页中的程序也不会处理的。

3、聚焦网络爬虫(主要学习方向)
针对某一特定领域的数据进行抓取的程序。比如旅游网站,金融网站,招聘网站等等;特定领域的聚集爬虫会使用各种技术去处理我们需要的信息,所以对于网站中动态的那些程序,脚本仍会执行,以保证确定能抓取到网站中的数据。

4、爬虫的用途

  • 解决冷启动问题:对于很多社交类的网站和应用程序,冷启动很困难。要想留住新注册的用户,需要先注入一批假用户,已构造社区的氛围。通常这些假的用户可以通过网络爬虫从微博或其他APP中抓取而来。
  • 搜索引擎的根基:做搜索引擎需要数据来源,就是通过爬虫程序来实现的
  • 建立知识图谱:这是在机器学习方面的用途,爬虫可以帮助建立起机器学习的训练集
  • 数据分析:制作各种商品的比价,进行数据分析、趋势分析、走势预测

5、爬虫的合法性问题
1)目前还处于不明确的蛮阶段,“哪些行为不允许”这种基本秩序还处于建设中。
2)至少目前来看,如果抓取的数据为个人所用,则不存在问题;如果数据用于转载,那么抓取数据的类型就很重要了
3)一般来说,当抓取的数据是实现生活中的真实数据(比如,营业地址,电话清单)时,是允许转载的。但如果是原创数据(文章、意见、评论),通常就会受到版权限制,而不能转载。
4)不管怎么样,作为一个访客,应当约束自己的抓取行为,这就是说要求下.载请求的速度需要限定在一个合理值之内,并且还需要设定一个专属的用户代理来标识自己。

6、robots.txt文档
就是一个君子协议,记录了一些网站允许其他网站爬取的范围(allow允许,disallow不允许),比如: https://www.baidu.com/robots.txt和 https://www.douban.com/robots.txt

7、网站地图sitemap
sitemap是一个网站所有链接的容器,是一个xml文档。很多网站的连接层次比较深,很难抓取到,网站地图可以方便搜索引擎蜘蛛抓取网站页面,通过抓取网站页面,清晰了解网站的架构,网站地图一般存放在根目录下并命名为sitemap,为搜索引擎蜘蛛指路,增加网站重要内容页面的收录。网站地图就是根据网站的结构、框架、内容,生成的导航网页文件。大多数人都知道网站地图对于提高用户体验有好处:它们为网站访问者指明方向,并帮助迷失的访问者找到他们想看的页面。
比如: https://www.mafengwo.cn/sitemapIndex.xml和 http://www.170hi.com/sitemap.xml

8、深度优先与广度优先
1)深度优先策略
11

2)广度优先策略
22

9、HTTP与HTTPS协议

  • URL:统一资源定位符,是用于完整地描述Internet上网页和其他资源地址的一种标识方法
  • HTTP协议:无连接(每次连接只处理一个请求),无状态(每次的传输都是独立的)
  • HTTPS协议:用于Web的安全传输协议,在传输层对网络连接进行加密
  • HTTP的缺省端口号为80,HTTPS的缺省端口号为443
  • GET请求:从服务器获取信息,传输给服务器的数据过程不够安全
  • POST请求:传输数据的过程是安全的,传输数据的大小理论上没有限制
  • HTTP响应的状态码:
    200:成功
    300:跳转
    400,500:错误
    404:页面未找到

二、爬虫之路

初级爬虫工程师

1、Web 前端的知识: HTML,CSS,JavaScript,DOM,DHTML,Ajax,jQuery,json等。
2、正则表达式,能提取正常一般网页中想要的信息,比如某些特殊的文字,链接信息,知道什么是懒惰,什么是贪婪型的正则。
3、(重点)会使用re,BeautifulSoup,XPath等获取一些DOM结构中的节点信息。
4、(算法)知道什么是深度优先,广度优先的抓取算法,及实践中的使用规则。
5、 能分析简单网站的结构,会使用urllib、requests 库进行简单的数据抓取。

中级爬虫工程师

1、了解什么是Hash,会使用简单的MD5、SHA1等算法对数据进行Hash以便存储。
2、熟悉HTTP、HTTPS(更安全,使用了应用层加密)协议的基础知识,了解GET、POST方法,了解HTTP头中的信息,包括返回状态码,编码,userlagent, cookie, session等。
3、能设置User-Agent进行数据爬取,设置代理等。
4、知道什么是Request、什么是Response,会使用Fiddle, Wireshark等工具抓取及分析简单的网络数据包;对于动态爬虫,要学会分析Ajax请求,模拟制造Post数据包请求,抓取客户端session等信息,对于一些简单的网站,能够通过模拟数据包进行自动登录。
5、对于比较难搞定的网站,学会使用浏览器+selenium抓取一些动态网页信息。
6、并发下载,通过并行下载加速数据抓取,多线程的使用。

高级爬虫工程师

1、能使用Tesseract, 百度AI、HQG+SVM、CNN等库进行验证码识别。
2、能使用数据挖掘的技术,分类算法等避兔死链等。
3、会使用常用的数据库进行数据存储,查询,如Mongodb, Redis(大数据量的缓存)等;下载缓存,学习如何通过缓存避免重复下载的问题; Bloom Filter 的使用。
4、能使用机器学习的技术动态调整爬虫的爬取策略,从而避免被禁IP封号等。
5、能使用一些开源框架Scrapy、Celery等分布式爬虫,能部署掌控分布式爬虫进行大规模的数据抓取。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
解锁网络数据的宝藏:Python爬虫工具与教程集合 一、探索网络信息的无限宝藏 在互联网的海洋中,蕴藏着海量的有价值信息。如何合法、高效地获取这些信息?Python爬虫工具与教程为您揭开这一神秘面纱。通过这些资源,您可以轻松地爬取网站信息,提取所需内容,为各种应用场景提供强大的数据支持。 二、资源亮点 工具齐全:提供一系列功能强大的Python爬虫工具,满足您不同场景下的需求。 教程详尽:配套的Python爬虫教程,从基础到进阶,让您逐步掌握爬虫的核心技术。 合法合规:严格遵守法律法规和网站使用协议,确保采集行为合法,尊重网站权益。 实战项目:结合实际案例,让您在实践中掌握Python爬虫的运用,真正做到学以致用。 三、适用人群 无论您是数据分析师、网络开发者还是对Python爬虫感兴趣的爱好者,这些资源都将为您的学习和实践提供有力的支持。 四、使用建议 按需选择工具与教程:根据实际需求选择合适的工具和教程,确保学习与实践的有效性。 遵守法律法规与协议:在使用这些资源进行爬取活动时,务必遵守相关法律法规和网站的使用协议。 持续学习与更新:随着网络技术的不断进步,Python爬虫技术也在不断发展。建议您持续关注相关动态,提升自己的技能水平。 五、安全与责任 尊重网站权益:避免对目标网站的正常运行造成干扰或损害,合理使用资源。 隐私保护:在采集数据时,严格遵守隐私保护法规,不泄露或滥用用户个人信息。 风险防范:了解并应对潜在的网络威胁,采取相应措施降低风险。 感谢您选择我们的Python爬虫工具与教程集合!让我们一起挖掘网络信息的宝藏,为您的工作和研究注入新的活力!请务必遵守法律法规和网站使用协议,共同维护网络数据的合法采集与利用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鸿蒙Next

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值