电影天堂电影链接爬取

 1 import requests,re
 2 
 3 
 4 def getdetail(url):
 5 
 6     response = requests.get(url)
 7     html = response.content.decode('gbk')
 8     # 电影详情页标题
 9     movie_title_name = re.search('<h1><font color=#07519a>(.*)</f',html)
10     movie_title = movie_title_name.group(1)
11     # 电影 磁力   magnet
12     movie_magnet_url = re.search('/><a href="(.*)"><str',html)
13     # print(movie_magnet.group(1))
14     movie_magnet = movie_magnet_url.group(1)
15     # torrent种子
16     movie_torrent_url = re.search('ddf"><a href="(.*)">ft',html)
17     movie_torrent = movie_torrent_url.group(1)
18     # print(movie_torrent.group(1))
19     # 这个列表用来title
20     movie_title_list = []
21     movie_title_list.append(movie_title)
22 
23     # 这个列表两个下载的链接
24     movie_down_url = []
25     movie_down_url.append(movie_magnet)
26     movie_down_url.append(movie_torrent)
27     movie_down_url_all = []
28     movie_down_url_all.append(movie_down_url)
29 
30 
31     movie_dict = dict(zip(movie_title_list,movie_down_url_all))
32     print(movie_dict)
33 
34 
35 
36 def getpage():
37 
38     for i in range(1,178):
39         lurl = 'http://www.dytt8.net/html/gndy/dyzz/list_23_%s.html' % i
40 
41         response = requests.get(lurl)
42 
43         html = response.text
44 
45         movie_url_list = re.findall('<a href="(.*)" class="ulink"',html)
46 
47         for movie_item in movie_url_list:
48             movie_url = 'http://www.dytt8.net'+movie_item
49             getdetail(movie_url)
50 
51 
52 if __name__ == '__main__':
53     getpage()

 

转载于:https://www.cnblogs.com/daihao9527/p/9503189.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬取电影天堂这类网站通常涉及到网络爬虫技术,特别是使用如requests、BeautifulSoup、Scrapy等库来获取网页内容。以下是一个简单的步骤概述: 1. **导入库**:首先安装必要的库,如`requests`用于发送HTTP请求,`beautifulsoup4`用于解析HTML。 ```python import requests from bs4 import BeautifulSoup ``` 2. **发送请求**:向电影天堂的URL发起GET请求,并保存响应内容。 ```python url = "http://www.example.com/movieheaven" # 替换为你想爬取电影天堂页面地址 response = requests.get(url) ``` 3. **解析内容**:使用BeautifulSoup解析HTML文档,找到包含电影信息的部分。 ```python soup = BeautifulSoup(response.text, 'html.parser') movies = soup.find_all('div', class_='movie') # 类名可能需要根据实际网站结构修改 ``` 4. **提取数据**:遍历解析后的节点,提取每部电影的标题、链接或其他相关信息。 ```python for movie in movies: title = movie.find('h2').text link = movie.find('a')['href'] print(f'Title: {title}, Link: {link}') ``` 5. **存储数据**:可以根据需求将数据存入CSV、数据库或JSON文件。 6. **处理反爬机制**:注意检查目标网站是否有robots.txt文件,遵守网站的爬取政策,设置合理的延迟以避免过于频繁的访问。 这只是一个基础示例,实际爬取可能需要处理JavaScript渲染的内容、登录验证、动态加载等复杂情况。同时,要注意尊重版权和法律法规,合理使用爬虫。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值