python批量下载网页链接_【Python项目】简单爬虫批量获取资源网站的下载链接

简单爬虫批量获取资源网站的下载链接

1 由来

自己在收集剧集资源的时候,这些网站的下载链接还要手动一个一个复制到百度云离线下载里,稍微懂了一点编程就不想做这种无意义的劳动了。于是就写了一个这样的一个小项目。

目前支持的网站有美剧天堂,追新番。(其他网站要不就是我还不知道,要不就是资源并不好……)

2 环境依赖

使用的Python 3.7。

需要额外安装的应该就只有bs4。

直接使用pip就能安装。

pip install bs4

3 使用方法

3.1 美剧天堂

代码地址:美剧天堂

然后想要第1个标签【中字720P】下面的这些链接。

那么就把代码里的这一段的参数改一改。

就可以直接Run了。

成功大概是这样的画面。

得到的txt如下。

然后把这些复制到下载工具就好啦!

3.2 追新番

资源列表是这样的。

一共有十集,那么把代码里的参数改一下。大概下面这样,ep_n表示的是集数,为什么要这个参数,后面再说。

然后可以直接Run了。

成功的画面是这样。

得到的txt是这样。

然后把这些复制到下载工具就好啦!

但是!这个追新番……网页,有点傻。比如李狗嗨的页面!竟然是把资源全部都挤在一页!我惊呆了……大家都不想下重复资源的,要下就下高清点的资源,所以代码里对此进行了选择。

以及日剧里是有SP的概念的,不一定是Ep,所以要用户告诉程序一共要下多少个资源(集数)。

4 Contact Me

如果有什么Bug,或者有其他比较好的资源网站(误。请联系我!(924154233@qq.com)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值