爬取豆瓣Top100电影并存储为csv文件(附csv文件乱码解决方法)

大致分为以下步骤:

  • 使用requests库爬取网页
  • 使用BeautifulSoup库解析网页
  • 使用pandas库将数据存储为csv文件

1.首先引入第三方库:

import requests
from bs4 import BeautifulSoup
import pandas as pd

我们去豆瓣电影Top250会发现每个页面有25个电影:

查看URL发现每个URL都有标志:
在这里插入图片描述在这里插入图片描述

2.下载4个页面的HTML:

page_indexs = range(0, 100, 25) # 构造分页列表
list(page_indexs)

def download_all_htmls(): # 爬取4个页面的HTML,用于后续的分析
    htmls = []
    for idx in page_indexs:
        url = f"https://movie.douban.com/top250?start={idx}&filter=" # 替换分页参数
        print("craw html:", url)
        r = requests.get(url,
                         headers={
   "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)"}) 
        # r返回一个包含服务器资源的Response对象
        if r.status_code != 200:
            raise Exception("error") # 当程序出错时通过raise语句显示引发异常
        htmls.append(r.text)
    return htmls
 
 # 执行爬取
htmls = download_all_htmls() # 爬取4个页面的HTML

3.解析HTML得到数据:

def parse_single_html(html): # 解析单个HTML,得到数据
    soup = BeautifulSoup(html, 'html.parser') # 解析HTML数据
    article_items = (                         # 对照HTML结构写
        soup.find("div", class_=
好的,以下是用Python编写程序爬取豆瓣读书排行榜并储存为CSV文件的代码: ```python import requests from bs4 import BeautifulSoup import csv url = 'https://book.douban.com/top250?start=' # 创建一个csv文件并写入表头 with open('douban_books.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.writer(f) writer.writerow(['书名', '作者', '出版社', '出版日期', '评分', '评价人数']) for i in range(0, 250, 25): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} res = requests.get(url + str(i), headers=headers) soup = BeautifulSoup(res.text, 'html.parser') books = soup.select('table')[0].select('tr')[1:] for book in books: name = book.select('td')[1].select('a')[0]['title'] author = book.select('td')[1].select('p')[0].text.split('/')[0].strip() publisher = book.select('td')[1].select('p')[0].text.split('/')[-3].strip() date = book.select('td')[1].select('p')[0].text.split('/')[-2].strip() score = book.select('td')[2].select('span')[1].text.strip() num = book.select('td')[2].select('span')[2].text.strip()[:-3] with open('douban_books.csv', 'a', encoding='utf-8', newline='') as f: writer = csv.writer(f) writer.writerow([name, author, publisher, date, score, num]) ``` 这段代码使用requests和BeautifulSoup库来爬取豆瓣读书排行榜的信息,并将信息存储在一个CSV文件。在代码,我们首先创建了一个CSV文件,并写入了表头。然后,我们循环遍历排行榜的每一页,用BeautifulSoup库解析出每本书的信息,并将信息写入CSV文件。最终,我们得到了一个包含豆瓣读书排行榜前250本书信息的CSV文件
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值