python爬虫 爬取资料_python爬虫之爬取百度音乐的实现方法

在上次的爬虫中,抓取的数据主要用到的是第三方的Beautifulsoup库,然后对每一个具体的数据在网页中的selecter来找到它,每一个类别便有一个select方法。对网页有过接触的都知道很多有用的数据都放在一个共同的父节点上,只是其子节点不同。在上次爬虫中,每一类数据都要从其父类(包括其父节点的父节点)上往下寻找ROI数据所在的子节点,这样就会使爬虫很臃肿,因为很多数据有相同的父节点,每次都要重复的找到这个父节点。这样的爬虫效率很低。

因此,笔者在上次的基础上,改进了一下爬取的策略,笔者以实例来描述。

20190824100320.jpg

如图,笔者此次爬取的是百度音乐的页面,所爬取的类容是上面榜单下的所有内容(歌曲名,歌手,排名)。如果按照上次的爬虫的方法便要写上三个select方法,分别抓取歌曲名,歌手,排名,但笔者观察得知这三项数据皆放在一个li标签内,如图:

20190824100328.jpg

这样我们是不是直接抓取ul标签,再分析其中的数据便可得到全部数据了?答案是,当然可以。

但Beaufulsoup不能直接提供这样的方法,但Python无所不能,python里面自带的re模块是我见过最迷人的模块之一。它能在字符串中找到我们让我们roi的区域,上述的li标签中包含了我们需要的歌曲名,歌手,排名数据,我们只需要在li标签中通过re.findall()方法,便可找到我们需要的数据。这样就能够大大提升我们爬虫的效率。

我们先来直接分析代码:

def parse_one_page(html):

soup = BeautifulSoup(html, 'lxml')

data = soup.select('div.ranklist-wrapper.clearfix div.bd ul.song-list li')

pattern1 = re.compile(r'

(.*?).*?title="(.*?)".*?title="(.*?)".*?', re.S)

pattern2 = re.compile(r'

(.*?).*?title="(.*?)".*?target="_blank">(.*?)', re.S)

wants = []

for item in data:

# print(item)

final = re.findall(pattern1, str(item))

if len(final) == 1:

# print(final[0])

wants.append(final[0])

else:

other = re.findall(pattern2, str(item))

# print(other[0])

wants.append(other[0])

return wants

上面的代码是我分析网页数据的全部代码,这里不得不说python语言的魅力,数十行代码便能完成java100行的任务,C/C++1000行的任务。上述函数中,笔者首先通过Beautifulsoup得到该网页的源代码,再通过select()方法得到所有li标签中的数据。

到这里,这个爬虫便要进入到最重要的环节了,相信很多不懂re模块的童靴们有点慌张,在这里笔者真的是强烈推荐对python有兴趣的童靴们一定要学习这个非常重要的一环。首先,我们知道re的方法大多只针对string型数据,因此我们调用str()方法将每个list中的数据(即item)转换为string型。然后便是定义re的pattern了,这是个稍显复杂的东西,其中主要用到re.compile()函数得到要在string中配对的pattern,这里笔者便不累述了,感兴趣的童靴可以去网上查阅一下资料。

上述代码中,笔者写了两个pattern,因为百度音乐的网页里,li标签有两个结构,当用一个pattern在li中找不到数据时,便使用另一个pattern。关于re.findadd()方法,它会返回一个list,里面装着tuple,但其实我们知道我们找到的数据就是list[0],再将每个数据添加到另一个List中,让函数返回。

相信很多看到这里的小伙伴已经云里雾里,无奈笔者对re板块也知道的不多,对python感兴趣的同学可以查阅相关资料再来看一下代码,相信能够如鱼得水。

完整的代码如下:

import requests

from bs4 import BeautifulSoup

import re

def get_one_page(url):

wb_data = requests.get(url)

wb_data.encoding = wb_data.apparent_encoding

if wb_data.status_code == 200:

return wb_data.text

else:

return None

def parse_one_page(html):

soup = BeautifulSoup(html, 'lxml')

data = soup.select('div.ranklist-wrapper.clearfix div.bd ul.song-list li')

pattern1 = re.compile(r'

(.*?).*?title="(.*?)".*?title="(.*?)".*?', re.S)

pattern2 = re.compile(r'

(.*?).*?title="(.*?)".*?target="_blank">(.*?)', re.S)

wants = []

for item in data:

# print(item)

final = re.findall(pattern1, str(item))

if len(final) == 1:

# print(final[0])

wants.append(final[0])

else:

other = re.findall(pattern2, str(item))

# print(other[0])

wants.append(other[0])

return wants

if __name__ == '__main__':

url = 'http://music.baidu.com/'

html = get_one_page(url)

data = parse_one_page(html)

for item in data:

dict = {

'序列': item[0],

'歌名': item[1],

'歌手': item[2]

}

print(dict)

最后我们看到的输出结果如下:

20190824100339.jpg

好了,笔者今天就到这里了。希望喜欢python的萌新能够快速实现自己的spider,也希望一些大神们能够看到这篇文章时不吝赐教。

以上这篇python爬虫之爬取百度音乐的实现方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持谷谷点程序。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值