爬虫爬取豆瓣TOP250电影的信息1

输出的电影信息包括电影名,导演名,主演名,上映年份,归属国家,电影分类和评分

import requests
from bs4 import BeautifulSoup
def get_movies():
    name_list=[]
    eName_list=[]
    dirName_list=[]
    starName_list=[]
    year_list=[]
    contr_list=[]
    cate_list=[]
    score_list=[]
    headers = {
        'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) '
                      'Chrome/74.0.3729.169 Mobile Safari/537.3',
        'Host': 'movie.douban.com'}
    for i in range(0,10):
        link='https://movie.douban.com/top250?start='+str(i*25)
        r=requests.get(link,headers=headers,timeout=10)
        soup=BeautifulSoup(r.text,"lxml")
        div_list1=soup.find_all('div',class_='hd')
        div_list2=soup.find_all('div',class_='bd')
        div_list3=soup.find_all('div',class_='star')
        for each in div_list1:
            name=each.find_all('span', class_='title')
            name_list.append(name[0].text)
            if(len(name)>1):
                eName_list.append(name[1])
            else:
                eName_list.append('null')
        for each in div_list2:
            info=each.p.text
            if(len(info)<3):
                continue
            info=info.split('\n')
            info1=info[1].split(':')
            length=len(info1)
            starName_list.append(info1[length-1])
            length1=len(info1[1])
            dirName_list.append(info1[1][0:length1-2])
            year=info[2].split('/')
            year_list.append(year[0])
            contr_list.append(year[1])
            cate_list.append(year[2])
        for each in div_list3:
            info=each.text.strip()
            score=info[0:3]
            score_list.append(score)
    for i in range(0,250):
        print('TOP%d'%(i+1))
        print("影片名:%s"%name_list[i])
        print("导演:%s"%dirName_list[i])
        print("主演名:%s"%starName_list[i])
        print("上映年份:%s"%year_list[i])
        print("国家:%s"%contr_list[i])
        print("电影分类:%s"%cate_list[i])
        print("评分:%s"%score_list[i])
if(__name__=="__main__"):
    get_movies()

输出结果展示:
在这里插入图片描述
下一节将介绍把这些信息导入excel文件中…

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,以下是使用Python爬虫豆瓣top250电影的具体过程: 1. 分析目标网站的网页结构和数据获方式。在浏览器中打开豆瓣电影top250页面(https://movie.douban.com/top250),可以看到每部电影都有一个唯一的电影ID、电影名称、评分、导演、主演、年份等信息。这些信息都是通过HTML标签来展示的,我们需要使用Python爬虫程序来获这些信息。 2. 安装必要的库。我们需要使用Python的requests库来发送HTTP请求,使用beautifulsoup库来解析HTML源码,使用pandas库来处理数据(可选)。 3. 发送HTTP请求。我们使用requests库发送GET请求,获电影top250页面的HTML源码。 4. 解析HTML源码。我们使用beautifulsoup库来解析HTML源码,获每部电影电影ID、电影名称、评分、导演、主演、年份等信息。 5. 存储数据。可以将数据存储到本地文件或数据库中,也可以使用pandas库来处理数据。 6. 处理异常情况。在爬虫过程中可能会遇到一些异常情况,如请求超时、网站反爬虫等,我们需要进行相应的处理,如设置请求头、使用代理IP等。 下面是使用Python爬虫程序豆瓣top250电影的示例代码: ```python import requests from bs4 import BeautifulSoup import pandas as pd def get_movie_info(url): # 发送HTTP请求 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) html = response.text # 解析HTML源码 soup = BeautifulSoup(html, 'html.parser') items = soup.find_all('div', class_='item') movie_info_list = [] for item in items: movie_info = {} movie_info['电影ID'] = item.find('div', class_='hd').a['href'].split('/')[-2] movie_info['电影名称'] = item.find('div', class_='hd').a.span.text.strip() movie_info['评分'] = item.find('span', class_='rating_num').text.strip() movie_info['导演'] = item.find('div', class_='bd').p.text.split(':')[1].split('\n')[0].strip() movie_info['主演'] = item.find('div', class_='bd').p.text.split(':')[2].strip() movie_info['年份'] = item.find('div', class_='bd').p.text.split('/')[-2].strip() movie_info_list.append(movie_info) return movie_info_list if __name__ == '__main__': # 豆瓣电影top250的前10页 movie_info_list = [] for i in range(10): url = 'https://movie.douban.com/top250?start={}&filter='.format(i * 25) movie_info_list += get_movie_info(url) # 存储数据到CSV文件 df = pd.DataFrame(movie_info_list) df.to_csv('douban_top250.csv', index=False) ``` 以上代码中,我们首先定义了一个`get_movie_info`函数,用于获一个页面的电影信息。在函数中,我们使用requests库发送HTTP请求,获电影页面的HTML源码,然后使用beautifulsoup库来解析HTML源码,获电影电影ID、电影名称、评分、导演、主演、年份等信息,并将这些信息保存到一个字典中。最后,我们将所有电影信息保存到一个列表中,返回该列表。 在主函数中,我们循环豆瓣电影top250的前10页,并将所有电影信息保存到一个CSV文件中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值