电影天堂获取电影

from urllib import request
import re
import pymysql
db = pymysql.connect(host='127.0.0.1', user='root', password='123456', port=3306, database='xueqiu')
cursor = db.cursor()
for i in range(3):
    url = 'http://www.ygdy8.com/html/gndy/dyzz/list_23_'+str(i)+'.html'
    headers = {
    'Referer':'http://www.ygdy8.com/',
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.5702.400 QQBrowser/10.2.1893.400'
    }
    req = request.Request(url,headers=headers)
    response = request.urlopen(req)
    html = response.read().decode('gbk','ignore')
    art = r'<a href="(.*?)" class="ulink">'
    i = re.findall(art,html)
    for n in i:
        url = 'http://www.ygdy8.com'+str(n)
        req = request.Request(url,headers=headers)
        response = request.urlopen(req)
        html1 = response.read().decode('gbk','ignore')
        asr = r'<title>(.*?)</title>'
        title = re.search(asr,html1).group(1)
        aer = r'<a href="(.*?)"><strong><font'
        cili = re.search(aer,html1).group(1)
        acr = r'bgcolor="#fdfddf"><a href="(.*?)">ftp'
        xunlei = re.search(acr,html1).group(1)
        sql = "insert into dianying(title,cili,xunlei) values('" + title + "','" + cili + "','" + xunlei + "')"
        cursor.execute(sql)
        db.commit()
cursor.close()
db.close()
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬取电影天堂这类网站通常涉及到网络爬虫技术,特别是使用如requests、BeautifulSoup、Scrapy等库来获取网页内容。以下是一个简单的步骤概述: 1. **导入库**:首先安装必要的库,如`requests`用于发送HTTP请求,`beautifulsoup4`用于解析HTML。 ```python import requests from bs4 import BeautifulSoup ``` 2. **发送请求**:向电影天堂的URL发起GET请求,并保存响应内容。 ```python url = "http://www.example.com/movieheaven" # 替换为你想爬取的电影天堂页面地址 response = requests.get(url) ``` 3. **解析内容**:使用BeautifulSoup解析HTML文档,找到包含电影信息的部分。 ```python soup = BeautifulSoup(response.text, 'html.parser') movies = soup.find_all('div', class_='movie') # 类名可能需要根据实际网站结构修改 ``` 4. **提取数据**:遍历解析后的节点,提取每部电影的标题、链接或其他相关信息。 ```python for movie in movies: title = movie.find('h2').text link = movie.find('a')['href'] print(f'Title: {title}, Link: {link}') ``` 5. **存储数据**:可以根据需求将数据存入CSV、数据库或JSON文件。 6. **处理反爬机制**:注意检查目标网站是否有robots.txt文件,遵守网站的爬取政策,设置合理的延迟以避免过于频繁的访问。 这只是一个基础示例,实际爬取可能需要处理JavaScript渲染的内容、登录验证、动态加载等复杂情况。同时,要注意尊重版权和法律法规,合理使用爬虫
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值