python爬b站视频_python代码福利:用requests爬取B站视频封面

最近看到一篇文章介绍了利用Python爬虫爬取B站视频封面的文章,虽然我完全没看文章,但是只看了一眼这个封面图就彻底把我吸引了。不过我也对爬虫这方面比较熟悉了,这么简单的事情还用看别人的文章教我做事?当然是自己动手丰衣足食啦!

(此处请自行想象.JPG)

确定思路

首先自然是先用F12开发者工具看看这个页面的样子了。这一步简直顺利的无懈可击,一下子就找到了封面图的地址,就是下图红框所示的地址。在浏览器中打开看看,果然正是这个封面图。但是话又说回来,这个封面图是不是小了点?这就要说到图片CDN的一个功能了,如果大家有用过这类服务的话,一般这种图片服务都支持按照尺寸加载图片,也就是这个地址最后的320w_240h。如果是这样的话,那么我们把它改成大尺寸的1920*1080,不就是可以得到高清大图了吗?这么一尝试果然如此,好了,那么问题就解决了。

0b7b02087bf40ad1008762bea1d12dd8a8ecce15.jpeg?token=2fbc25710851b87c5a6ba204fddd2b39

封面图地址

解决异步加载

但是实际操作的时候,又遇到了一个问题。那就是代码完全正确,但是结果却一个网页元素都获取不到了。这可让我百思不得其解,百般尝试之后无奈再回头看看人家的文章是怎么说的。原来B站的网页是异步加载的,如果用爬虫直接获取的话,只会得到如下图所示的空空如也的页面,实际的网页内容都是通过JavaScript执行以后获得的。比较遗憾的是,我尝试用requests-html的render函数渲染浏览器实际页面,也没有成功。

c83d70cf3bc79f3d09574b27405cf116738b297c.jpeg?token=0c2535f215503009942cf5771cbf7de1

没有实际内容的网页内容

这时候就要说回到异步加载了,既然这些信息是异步加载出来的,那么我们看看能否从网页中找到一些线索。实际上还真有这么一个东西,就是下图中search这个请求,它请求的地址是api开头的网址,一般都是干返回JSON数据的。如果不好找的话,可以从红框那里选择筛选类别来进行更详细的查找。总之,这个请求就是我们要找的东西,它返回的正是当前页面的封面图JSON数据,最关键的是,它这里的图片直接就是1920*1080高清大图,直接省了不少事情。而且这个请求的参数直接就包含了页数,所以我们只要取到总页数,用这个api拉图片地址就完事了。

8ad4b31c8701a18b8912f2826bd23b0f2a38fe03.jpeg?token=385b688ef422868289c3479546db74aa

寻找加载方式

实际代码和效果

好了,下面就是最终的代码了。代码按照函数来组织,应该非常容易理解,因为我这里使用视频封面图的标题来当做文件名,所以可能会出现不能当做文件名的非法字符。因此我还加了一个函数专门来去除非法字符。默认图片保存路径是桌面,可以更改到其他位置。

faf2b2119313b07e17ad32e1fa2aad2495dd8cc8.jpeg?token=4884d99a6ef1e4b9aa70885eb0ddb468

部分代码截图

from requests_html import HTMLSessionuserinfo_url = 'https://space.bilibili.com/72956117/video'save_folder = r'~/Desktop/images'def get_total_page(): session = HTMLSession() response = session.get(userinfo_url) response.html.render() total_page = response.html.find('span.be-pager-total', first=True).text return int(total_page[2:-3])def get_image_urls(): base_url = 'https://api.bilibili.com/x/space/arc/search?mid=72956117&ps=30&tid=0&pn={0}&keyword=&order=pubdate&jsonp=jsonp' session = HTMLSession() for i in range(1, get_total_page()+1): url = base_url.format(i) response = session.get(url) for i in response.json()['data']['list']['vlist']: yield {'name': i['title'], 'url': 'https:'+i["pic"]}def remove_unvalid_chars(s): for c in r'''"'<>/\|:*?''': s = s.replace(c, '') return sdef download_images(): import pathlib import requests import shutil folder = pathlib.Path(save_folder).expanduser() if not folder.exists(): folder.mkdir() for i in get_image_urls(): response = requests.get(i['url'], stream=True) filename = remove_unvalid_chars(i["name"])+'.jpg' with open(folder/filename, 'wb') as f: shutil.copyfileobj(response.raw, f) print(f'{i["name"]}.jpg下载完成')download_images()运行完毕之后就可以得到满满一个文件夹的图片了,然后就可以一个人找个闲暇时间静静的欣赏了。喜欢的朋友记得点个赞哦!

32fa828ba61ea8d3546c984763f70c49241f5828.jpeg?token=a87adf5baa6215069745dffe3bcc10c1

此处请继续自行想象

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值