《用python写网络爬虫》第二章,看不懂你打我。

正则表达式

Xpath

BeautifulSoup

1、本章学习路径:正则表达式–>Xpath–>BeautifulSoup

2、Requests最核心的两个类:

  • request(对HTTP请求的封装)
  • response(对HTTP返回结果的封装)
    一次HTTP请求其实就是:(1)构造request类、(2)发送HTTP请求、(3)等待服务器并获得服务器响应结果、(4)解析响应结果,并构造response类。
    以上这四个步骤,只需一行代码即可实现:response=request.get(url)
    通过requests构造一个请求对象,并通过get函数发送HTTP请求,最后响应结果保存于response对象中。(如果很多名词看不懂,不要急,只要先把这段文字理解了,然后慢慢看就会懂了)

3、正则表达式:是处理字符串的强大工具,可实现字符串的检索、替换、匹配验证等都不在话下。正则表达式是一个特殊的字符序列,它能帮助你方便的检查一个字符串是否与某种模式匹配。

4、正则表达式的重要符号:
在这里插入图片描述5、网络爬虫关于正则表达式:

  • . 匹配任意字符,换行\n除外
  • * 匹配前一个字符0次或者无数次
  • ==?==匹配前一个字符0次或者1次
  • ==.*==贪心算法(左右一起寻找最大的目标区间)
  • .*?非贪心算法(从一边寻找最小的目标区间)
  • ==()==代表将()内的数据作为结果输出
    下面给大家举例方便理解网络爬虫关于正则表达式是如何实现的
    第一个例子:(匹配任意字符,一个字符的前几次)
import re #导入正则表达式的库
a="xz123"
b=re.findall("x.",a)#参照前面的点(.)的含义,代表匹配任意字符
print(b)     #此时的结果为['xz']
c=re.findall("x*",a)  #星号(*)的意思是匹配前一个字符0次或者无数次
print(c)     #此时的结果为['x','','','','','']

第二个例子:(贪心算法和非贪心算法的比较)
要求:提取C中的i love you

import re
c="dafsdxxixxfd32r43xxlovexxfadgdaxxyouxxg235"
d=re.findall("xx.*xx",c)
print(d)      

我们发现c这个字符串中要提取的i love you 中左右两边都有xx.xx,所以考虑可以用贪心算法。
参考上面的==(.*)==的用处:从左右俩边同时搜索,只要满足xx.xx的情况,就提取包围xx.xx里面的全部。所以此时输出的答案为 [‘xxixxfd32r43xxlovexxfadgdaxxyouxx’] 但是此时我们发现输出的答案不是我们所要的,此时我们要的是最小范围,所以考虑到用非贪心算法,参照上面 ==(.*?)==的含义,从左边一边开始搜索发现符合xx.xx的全部提取出来存储在一个列表中。

import re 
c="dafsdxxixxfd32r43xxlovexxfadgdaxxyouxxg235"
d=re.findall("xx.*?xx",c)
print(d)

此时的打印结果为[‘xxixx’,‘xxlovexx’,‘xxyouxx’]
我们发现此时我们不想要xx,我们只想要xx里面的字符串,此时用到==()==(参考前面网络爬虫关于正则表达式的用法)

import re 
c="dafsdxxixxfd32r43xxlovexxfadgdaxxyouxxg235"
d=re.findall("xx(.*?)xx",c)
print(d)

此时的打印结果就是我们需要的拉~,记住==(.?)==是网络爬虫中常用的表达式!!!,小可爱们可以思考一下,如果我们需要爬取网页里面的内容,只需把d=re.findall("xx(.?)xx",c)里面的c改为需要爬取的网址就可以拉,这就是爬虫的来源呀!

6、Python中的Re模块:

  • re.findall函数,用于匹配所有符合规律的内容返回包含结果的列表,语法为:re.findall(pattern,string,flags=0)

  • pattern---->匹配的正则表达式

  • string---->要被查找的原始字符串

  • flags—>标志位,用于控制正则表达式的匹配方式:如区分大小写,多行匹配等。

  • re.search函数,扫描整个字符串并返回第一个成功的匹配,要用re.search(),re.group()来获取具体值。语法为:re.search(pattern,string,flags=0)

  • pattern---->匹配的正则表达式

  • string---->要匹配的字符串

  • flags—>标志位,用于控制正则表达式的匹配方式:如区分大小写,多行匹配等。

-re.sub函数,用于替换字符串中的匹配项,返回替换后的值。语法为:re.sub(pattern,repl,string,count=0,flags=0)

  • pattern—>匹配的正则表达式
  • repl—>替换的字符串,也可以为一个函数
  • string—>要被查找替换的原始字符串
  • count—>匹配后替换的最大次数,0默认替换所有
  • flags—>标志位,用于控制正则表达式的匹配方式:如区分大小写,多行匹配等。

re.sub的例子:提取下面的号码

import requests
import re
strl="我的电话号码是:010-6737-2224344,请保存好!"
result=re.sub("\D"," ",strl)
#\D代表的是匹配非数字的字符,替换成“ ”空来表示,也就是把号码提取出来了
print(result)

7、使用Re模块实现豆瓣电影的爬取A
(1)下载requests安装:
Windows:pip install requests
linux:pip install requests

(2)获取豆瓣电影的网页代码

import requests #导入库
import re #使用re模块执行我的正则表达式
#从“豆瓣电影520”中获取页面
html=requests.get("https:movie.douban.com/top250")
print(html)  #打印出来的结果的是<response [200]>
#想要打印网页中代码,只需要打印:print(html.text)即可

(3)使用re查找所有电影的评价人数A。
在上面基础上,阅读html找到评价人数的代码,但是太low,所以介绍大家使用chrome浏览器(开发者工具,快速定位想要的代码)首先按下F12键如果按F12不行,就在此页面单击右键找到查看元素下面的步骤就一样啦(开发者工具)继续按F5进行刷新(对应的所有的请求与响应都被捕捉,左下角有个尖用于选择element(元素),点击选中评价人数就在就会自动定位到html代码)
在这里插入图片描述此时找到的代码是(<span>116758人评价</span>

import requests
import re
html=requests.get("https:movie.douban.com/top250")
x=re.findall("<span>(.*?)人评价</span>",html.text)
#此处的贪心算法是唯一定位

输出的结果就是网页电影评价人数:[‘116785’,‘8554079’,…]

(4)使用re查找所有电影的评价人数B。(在豆瓣电影中,我只想要提取出数字,用正则表达式如何实现?)

import requests
import re
html=requests.get("https:movie.douban.com/top250")
#电影评分
star=re.findall("<span class ='title'>(.*?)</span>",html.text)
#电影名称
name=re.findall("<span class ='title'>(.*?)</span>",html.text)
print(star,name)

电影的评分和名称就都出来了,自己去试试吧~

Xpath
(1)xpath(XML path Language,即XML路径语言)是一门在XML文档中查找信息的语言,是一种解析语言。

(2)常用的Xpath路径表达式:

  • nodename —>选取此节点的所有子节点
  • / —>从节点选取(描述绝对路径)
  • // —>不考虑位置,可选取页面中所有子孙结点(如//div//a 此时的a不一定是子节点)
  • . ---->选取当前结点(描述相对路径)
  • … ---->选取当前节点的父节点(描述相对路径)
  • @属性名 ---->代表提取属性的值
  • text() ----->获取元素中的文本节点

(3)带谓语的Xpath的路径表达式:

  • //div[@id=‘content’] —>选取属性id为content的div元素
  • //div[@class] —>选取所有带有属性class的div元素
  • //div/p[1]/text() —>选取div节点中的第一个p元素的文本
  • //div/p[2]/text() —>选取div节点中的第二个p元素的文本
  • //div/p[last()]/text() —>选取div节点中的最后元素的文本

(4)使用Xpath提取数据的例子:

from lxml import etree  #导入Xpath的库
import requests
import re
html=requests.get("https:movie.douban.com/top250",html.text)
selector=etree.HTML(html)  #理解为一个选择器
title=selector.Xpath("/html/head/title/text()").[0].strip("\n")
#/代表从根节点开始,后面加上.[0]是因为全部放进了一个列表里面,取第一元素,后面是为了去除\n符号,得到干净的电影标题
name=selector.Xpath("//div[@class="hd"]/a/span[1]/text()").[0]
#a/span[1]/text()代表着a目录下第一个span节点
print(name,title)

BeautifulSoup介绍
BeautifulSoup提供一些简单的python式的函数来处理导航、搜索、修改分析树等功能,它能自动将输入文档转换为unicode编码,输出文档转换为UTF-8编码

BeautifulSoup还提供了CSS选择器,使用CSS选择器的时,只需调用select()方法,传入相应的CSS选择器

多线程
python内置了threading 模块,用于实现多线程功能。

  • Thread(target,args) ---->新建线程对象
  • setDaemon() ---->:
  • 守护线程
  • True:主线程执行完毕后将子线程回收
  • False:主线程执行完毕后不会将子线程回收
  • join() ---->等待至线程终止
  • start() ---->启动线程活动
  • isAlive() ---->判断线程是否活动
  • remove() —>删除线程

因为我是使用Xpath来爬取,所以后面会补充一个完成的Xpath爬虫代码。这里的文档是介绍知识然后写代码方便理解,如果那里有问题可以联系我~~

【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何出高效率的爬虫,如何出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是:网络请求:模拟浏览器的行为从网上抓取数据。数据解析:将请求下来的数据进行过滤,提取我们想要的数据。数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是:爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求!【课程服务】 专属付费社群+定期答疑
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱吃香菜的斌斌

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值