2024年Python最新如何用Python爬取网易云两百万热歌(2),2024年最新面试 答案

一、Python所有方向的学习路线

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

二、学习软件

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。

三、入门学习视频

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

作者: 南小小川/南川笔记

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入

本教程完全基于Python3版本,主要使用Chrome浏览器调试网页、Scrapy框架爬取数据、MongoDB数据库存储数据,选择这个组合的理由是成熟、稳定、快速、通行,此外可能会涉及Requests+BeautifulSoup解析、Redis数据库、Djiango/Flask框架等,适合已有一定爬虫基础的朋友学习爬取主流网站数据。

工作流程


根据前期查询、分析、总结,得到一条实现本项目的路径:

在这里插入图片描述

反爬分析


  • UA

访问网易云只需要User-Agent是正常的即可,直接通过F12把自己的浏览器UI存入程序中。

  • IP

网易云对于爬取过快的单击将会拉黑IP,根据使用校园网被拉黑的经历来看,网易云封IP的时间还是挺长的,可能接近1天,比新浪微博返回418要残忍很多,所以千万不要用校园网爬取网易云,不然被ban了你连正常的网易云都访问不了了。我自己使用的是芝麻代理,已经写成了DOWNLOAD_MIDDLEWARE,结合MongoDB数据库Scrapy在爬取中会自动切换、重新获得可用的代理IP。网上也有很多免费代理IP的网站,比如西刺等,Github上也有现成开源的动态爬取免费IP的项目,有些有点问题,但因为工程量的问题,我一直没用。

  • iFrame

网易云的所有歌曲信息、评论等等,都是嵌在iFrame框架里的,这个要特别特别注意。具体的表现为,当你在程序中使用Requests或者Scrapy访问李荣浩的热门歌曲页面:https://music.163.com/#/artist?id=4292时,你会得不到任何你想要的歌曲信息,但你把这个#号去掉,就可以得到了,即:https://music.163.com/artist?id=4292。但是当你用正常浏览器访问这两个网址时,都会跳转到第一个,因为浏览器对其进行了JavaScript渲染。这点非常重要,具体的直观测试方法,就是在浏览器页面内右键,可以看到有两个选项,一个是查看网页源代码(View Page Source),一个是查看框架源代码(View Frame Source),自己点点看就能明显地知道区别了。如果你是用Selenium等自动化程序访问的,不要忘了切换Frame才能得到自己想要的数据。

  1. API

网易云的很多数据其实是有API的,只是不去研究不知道,或者说没有公开开放,但你在知乎、简书、Github上能找到一些,本次项目里面的爬取评论部分就是用的知乎里面一位用户给出的VIP的API,帮了我非常大的忙,因为如果不是有这个VIP的API,我们就要走前端JavaScript解密,去破解网易云的Aes和RSA加密过程,这个代价就巨高了,而且爬取速度也绝非直接用API能比的。用代理IP爬取网易云主站信息大概每1000页就要死一个,但是爬评论的API,每十万页死一个差不多了,甚至也许都不会死(我的IP都是短期生存5-25分钟的,所以可能是自己死掉了)。

核心代码


以下是Scrapy中从歌手分类页到歌手专辑页再到专辑内的单曲页爬取链:

def start_requests(self):

for area in self._seq_area:

for kind in self._seq_kind:

for initial in self._seq_cat_initial:

cat = f’{area}00{kind}’

artists_url = self.settings[‘HOST_ARTISTS’].format(cat=cat, initial=initial)

yield Request(artists_url, callback=self.parse_artists)

def parse_artists(self, response):

for singer_node in response.css(‘#m-artist-box li’):

response.meta[‘item’] = singer_item = SingerItem()

singer_item[‘_id’] = singer_item[‘singer_id’] = singer_id = \

int(singer_node.css(‘a.nm::attr(href)’).re_first(‘\d+’))

singer_item[‘crawl_time’] = datetime.now()

singer_item[‘singer_name’] = singer_node.css(‘a.nm::text’).get()

singer_item[‘singer_desc_url’] = self.get_singer_desc(singer_id)

singer_item[‘singer_hot_songs’] = response.urljoin(singer_node.css(‘a.nm::attr(href)’).re_first(‘\S+’))

singer_item[‘cat_name’] = response.css(‘.z-slt::text’).get()

singer_item[‘cat_id’] = int(response.css(‘.z-slt::attr(href)’).re_first(‘\d+’))

singer_item[‘cat_url’] = response.urljoin(response.css(‘.z-slt::attr(href)’).re_first(‘\S+’))

yield singer_item

yield Request(self.get_singer_albums(singer_id), callback=self.parse_albums)

def parse_albums(self, response):

for li in response.css(‘#m-song-module li’):

yield response.follow(li.css(‘a.msk::attr(href)’).get(), callback=self.parse_songs)

next_page = response.css(‘div.u-page a.znxt::attr(href)’).get()

if next_page:

yield response.follow(next_page, callback=self.parse_albums)

def parse_songs(self, response):

album_item = AlbumItem()

album_item[‘_id’] = album_item[‘album_id’] = int(re.search(‘id=(\d+)’, response.url).group(1))

album_item[‘album_name’] = response.css(‘h2::text’).get()

album_item[‘album_author’] = response.css(‘a.u-btni::attr(data-res-author)’).get()

album_item[‘album_author_id’] = int(response.css(‘p.intr:nth-child(2) a::attr(href)’).re_first(‘\d+’))

album_item[‘album_authors’] =[{‘name’: a.css(‘::text’).get(), ‘href’: a.css(‘::attr(href)’).get()}

for a in response.css(‘p.intr:nth-child(2) a’)]

album_item[‘album_time’] = response.css(‘p.intr:nth-child(3)::text’).get()

album_item[‘album_url’] = response.url

album_item[‘album_img’] = response.css(‘.cover img::attr(src)’).get()

album_item[‘album_company’] = response.css(‘p.intr:nth-child(4)::text’).re_first(‘\w+’)

album_item[‘album_desc’] = response.xpath(‘string(//div[@id=“album-desc-more”])’).get() if \

response.css(‘#album-desc-more’) else response.xpath(‘string(.//div[@class=“n-albdesc”]/p)’).get()

用这个 ‘span#cnt_comment_count::text’ 有些没有评论的会出问题,会变成“评论”

album_item[‘album_comments_cnt’] = int(response.css(‘#comment-box::attr(data-count)’).get())

album_item[‘album_songs’] = response.css(‘#song-list-pre-cache li a::text’).getall()

album_item[‘album_appid’] = int(json.loads(response.css(‘script[type=“application/ld+json”]::text’).get())[‘appid’])

yield album_item

for li in response.css(‘#song-list-pre-cache li’):

song_item = SongItem()

song_item[‘crawl_time’] = datetime.now()

song_item[‘song_name’] = li.css(‘a::text’).get()

song_item[‘_id’] = song_item[‘song_id’] = int(li.css(‘a::attr(href)’).re_first(‘\d+’))

song_item[‘song_url’] = response.urljoin(li.css(‘a::attr(href)’).re_first(‘\S+’))

yield song_item

try:

热歌信息在
节点下,可以通过div#hotsong-list li a 得到歌曲的Id, href, name

但是,可以通过下面的textarea节点得到更为详细的data,这个不能通过正则匹配[],不然会被一些歌曲名给套住

有些歌手没有热门歌曲,比如: https://music.163.com/#/artist?id=13226806, 返回的是一个’\n’,无法json解析,因此用.strip()过滤

在解析韩国歌手页面的时候出现问题,比如: https://music.163.com/artist?id=1038327, 有时用BeautifulSoup的html5解析能解决问题

但提升效果有限,此处为了代码简介就不展开了

(1)Python所有方向的学习路线(新版)

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 17
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值