Python 爬取内容存入Excel实例(改进)

今天想找一个爬虫代码研究一下原理。于是找了一个爬取豆瓣top250的电影信息,并写入Excel文件的代码。但是总是报错(原文章)。通过改进代码学习了爬虫的基本原理。

直接看代码:

# coding=UTF-8
'''
  function:爬取豆瓣top250的电影信息,并写入Excel文件
'''
import requests
import re
from openpyxl import workbook  # 写入Excel表所用
from openpyxl import load_workbook  # 读取Excel表所用
from bs4 import BeautifulSoup as bs
import os
import sys
import io
from imp import reload
import random
import numpy as np
os.chdir(r'C:\Users\Administrator\Desktop')  # 更改工作目录为桌面


def getHtml(src):
    #headers = {'User-Agent': random.choice(self.ua_list)}

    reload(sys)
    sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='gb18030')  # 改变标准输出的默认编码
    # hea是我们自己构造的一个字典,里面保存了user-agent。
    # 让目标网站误以为本程序是浏览器,并非爬虫。
    # 从网站的Requests Header中获取。【审查元素】
    hea = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.118 Safari/537.36'}
    html = requests.get(src,headers = hea).content.decode('utf-8')
    #html.encoding = 'utf-8'  # 这一行是将编码转为utf-8否则中文会显示乱码。
    #infor = p.text.strip().encode('utf-8')
    #print(html.text)
    getData(html, src)  # 首页链接和其他页不同,所以单独获取信息
    #urls = re.findall('href="?start='+25*range(1,2,3,4,5)+'&filter=', html)  # re获取获取跳转链接的href
    p=0
    for i in range(1, 250):
        if i % 25 == 0:
            urls =len((re.findall("/?start="+str(i)+"&filter=", html)))  # re获取获取跳转链接的href
            p=p+urls
    for u in range(p-2):  # 匹配到的跳转链接最后两个重复,需去掉
        next_url = 'https://movie.douban.com/top250?start='+str(25*(u+1))+'&filter='
        print(next_url)
        # reload(sys)
        # sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='gb18030')  # 改变标准输出的默认编码
        hea = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.118 Safari/537.36'}
        html = requests.get(next_url,headers=hea).content.decode('utf-8')
        getData(html, next_url)


def getData(html, num_url):  # html:网页源码 ,num_url:页面链接
    global ws  # 全局工作表对象
    Name = []  # 存储电影名
    Dr = []  # 存储导演信息
    Ma = []  # 存储主演信息
    Si = []  # 存储简介
    R_score = []  # 存储评分
    R_count = []  # 存储评论人数
    R_year = []  # 存储年份
    R_area = []  # 存储地区
    R_about = []  # 存储剧情类型
    soup = bs(html, 'lxml')
    for n in soup.find_all('div', class_='hd'):
        # ts = n.contents[1].text  # 得到电影的所有名称
        ts = n.contents[1].text.strip().split('/')[0]  # 得到电影中文名
        Name.append(ts)
    for p in soup.find_all('p', class_=''):
        infor = p.text.strip().encode('utf-8').decode('utf-8') #此处用utf-8编码,以免下面查找 ‘主演’下标报错
        #print(infor)
        ya = re.findall('[0-9]+.*\/?', infor)[0]  # re得到年份和地区
        #print()
        R_year.append(ya.split('/')[0])  # 得到年份
        R_area.append(ya.split('/')[1])  # 得到地区
        R_about.append(infor[infor.rindex('/') + 1:])  # rindex函数取最后一个/下标,得到剧情类型
        try:
            sub = infor.index('主演')  # 取得主演下标
            Dr.append(infor[0:sub].split(':')[1])  # 得到导演信息
            mh = infor[sub:].split(':')[1]  # 得到主演后面的信息
            Ma.append(re.split('[1-2]+', mh)[0])  # 正则切片得到主演信息
        except:
            print ('无主演信息')
            Dr.append(infor.split(':')[1].split('/')[0])
            Ma.append('无介绍...')
    for r in soup.find_all('div', class_='star'):
        rs = r.contents  # 得到该div的子节点列表
        R_score.append(rs[3].text)  # 得到评分
        R_count.append(rs[7].text)  # 得到评论人数
    for s in soup.find_all('span', 'inq'):
        Si.append(s.text)  # 得到简介
    if len(Si) < 25:
        for k in range(25 - len(Si)):
            Si.append('本页有的电影没简介,建议查看核对,链接:' + num_url)

    print(len(Name),len(R_year),len(R_area),len(R_about),len(Dr),len(Ma),len(R_score),len(R_count),len(Si))

    for i in range(25):  # 每页25条数据,写入工作表中
        ws.append([Name[i], R_year[i], R_area[i], R_about[i],
                   Dr[i], Ma[i], R_score[i], R_count[i], Si[i]])


if __name__ == '__main__':
    #   读取存在的Excel表测试
    #     wb = load_workbook('test.xlsx') #加载存在的Excel表
    #     a_sheet = wb.get_sheet_by_name('Sheet1') #根据表名获取表对象
    #     for row in a_sheet.rows: #遍历输出行数据
    #         for cell in row: #每行的每一个单元格
    #             print cell.value,

    #  创建Excel表并写入数据
    wb = workbook.Workbook()  # 创建Excel对象
    ws = wb.active  # 获取当前正在操作的表对象
    # 往表中写入标题行,以列表形式写入!
    ws.append(['电影名', '年份', '地区', '剧情类型', '导演', '主演', '评分', '评论人数', '简介'])
    src = 'https://movie.douban.com/top250'
    getHtml(src)
    wb.save('test3.xlsx')  # 存入所有信息后,保存为filename.xlsx

这里有以下几点注意:

  1. 报错原因主要是因为网站在不断的更新,所以有些代码的写法有点不合适,稍加修改就好了。
    例如之前的豆瓣top250网页的2-10页的src是相同的,而现在的src每一页都不同,需要稍作改进:
    p=0
    for i in range(1, 250):
        if i % 25 == 0:
            urls =len((re.findall("/?start="+str(i)+"&amp;filter=", html)))  # re获取获取跳转链接的href
            p=p+urls
    for u in range(p-2):  # 匹配到的跳转链接最后两个重复,需去掉
        next_url = 'https://movie.douban.com/top250?start='+str(25*(u+1))+'&filter='
        print(next_url)

在这里插入图片描述
2. 网页存在反爬虫机制,需要加一句代码“伪装”一下:

    reload(sys)
    sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='gb18030')  # 改变标准输出的默认编码
    # hea是我们自己构造的一个字典,里面保存了user-agent。
    # 让目标网站误以为本程序是浏览器,并非爬虫。
    # 从网站的Requests Header中获取。【审查元素】
    hea = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.118 Safari/537.36'}
    html = requests.get(src,headers = hea).content.decode('utf-8')

3. 温馨提示:
网页更新可能会导致爬虫代码不适用,要么找一段代码自己修改一下;要么找近期发表的一些代码(注意查看发表时间)。或者在下方评论,我会根据网站的更新反馈修改方法。

  1. 结果展示
    在这里插入图片描述
    在这里插入图片描述
    感谢原文大佬:https://blog.csdn.net/Dick633/article/details/79933772
  • 6
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值