python linux下载磁力链_Python爬取80s网电影名称及迅雷(磁力)链接

更多教程请移步至:洛凉博客

大家可以登录下www.80s.tw网站,观察页面菜单。

最开始我是想把菜单下所有页面的都爬一遍。想想还是有点复杂。

5f5e7f1d272d

image.png

但是最开始通过匹配,这些菜单的链接都拿到了。

单线程去写这些肯定和复杂,就放弃了。最后就攻下了电影菜单下的。

最开始也是用正则匹配迅雷(磁力)链接,但是匹配的有点问题。

最后直接用BS4解决了。

下面大家看代码吧。

import requests

from bs4 import BeautifulSoup

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}

def url_1(page_o,page_t):

url_s = []

for page in range(page_o,page_t):

url = 'http://www.80s.tw/movie/list/-----p'+str(page)

url_s.append(url)

return url_s

def html(url_s):

mv_urls = []

for url in url_s:

html = requests.get(url,headers=headers)

soup = BeautifulSoup(html.text,'lxml')

for mv in soup.find_all('h3',{'class','h3'}):

mv_url = mv('a')[0]['href']

mv_urls.append('http://www.80s.tw'+mv_url)

return mv_urls

def thlj(mv_urls):

num = 0

print('{0:^1}\t{1:^30}\t{2:^60}'.format('排序','电影名称', '迅雷链接或磁力链接'))

for thurl in mv_urls:

html = requests.get(thurl,headers=headers)

soup_t = BeautifulSoup(html.text,'lxml')

for xlurl in soup_t.find_all('span',{'class',"xunlei dlbutton1"}):

num+=1

xl_lj = xlurl('a')[0]['href']

xl_name = xlurl('a')[0]['thunderrestitle']

print('{0:^1}\t{1:^30}\t{2:^60}'.format(num,xl_name,xl_lj))

page_o = int(input('请输入需要爬取的开始页:'))

page_t = int(input('请输入需要爬取的结束页:'))

thlj(html(url_1(page_o,page_t)))

这些迅雷链接直接复制用迅雷就能下载了。还有一种磁力链接,我没用过,不知道怎么用。大家可以百度或谷歌下。

5f5e7f1d272d

image.png

这些代码都是挺简单的,我也是个菜鸟,只是给自己的成果做个记录。

也没有太多的技术分享,还望大家见谅!!!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要实现这个需求,你需要用到一些 Python 的第三方库来进行和文件下载。以下是一个简单的示例代码,可以指定电影下载下载电影。 ``` import requests from bs4 import BeautifulSoup # 获电影下载 def get_movie_download_url(movie_name): search_url = 'https://www.dy2018.com/e/search/index.php' search_params = {'keyboard': movie_name.encode('gb2312')} search_response = requests.get(search_url, params=search_params) search_response.encoding = 'gb2312' search_html = search_response.text soup = BeautifulSoup(search_html, 'html.parser') first_result = soup.select('div.co_content8 table tbody tr')[1] download_url = first_result.select('a')[0]['href'] return download_url # 下载电影 def download_movie(movie_name): download_url = get_movie_download_url(movie_name) movie_response = requests.get(download_url) movie_response.encoding = 'gb2312' movie_html = movie_response.text movie_soup = BeautifulSoup(movie_html, 'html.parser') download_link = movie_soup.select('#Zoom td a')[0]['href'] download_response = requests.get(download_link) with open(movie_name + '.torrent', 'wb') as f: f.write(download_response.content) # 测试代码 download_movie('泰坦尼克号') ``` 以上代码使用了 requests 库来进行页请求和文件下载,使用了 BeautifulSoup 库来解析 HTML 页面。注意在获电影下载时,需要先进行页搜索,并找到搜索结果中的第一个电影。此外,该示例代码只实现了下载电影的种子文件,如果需要下载其他形式的电影文件,需要根据具体情况进行修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值