Python 爬取内容存入Excel实例(改进)

今天想找一个爬虫代码研究一下原理。于是找了一个爬取豆瓣top250的电影信息,并写入Excel文件的代码。但是总是报错(原文章)。通过改进代码学习了爬虫的基本原理。

直接看代码:

# coding=UTF-8
'''
  function:爬取豆瓣top250的电影信息,并写入Excel文件
'''
import requests
import re
from openpyxl import workbook  # 写入Excel表所用
from openpyxl import load_workbook  # 读取Excel表所用
from bs4 import BeautifulSoup as bs
import os
import sys
import io
from imp import reload
import random
import numpy as np
os.chdir(r'C:\Users\Administrator\Desktop')  # 更改工作目录为桌面


def getHtml(src):
    #headers = {'User-Agent': random.choice(self.ua_list)}

    reload(sys)
    sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='gb18030')  # 改变标准输出的默认编码
    # hea是我们自己构造的一个字典,里面保存了user-agent。
    # 让目标网站误以为本程序是浏览器,并非爬虫。
    # 从网站的Requests Header中获取。【审查元素】
    hea = {
   
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.118 Safari/537.36'}
    html = requests.get(src,headers = hea).content.decode('utf-8')
    #html.encoding = 'utf-8'  # 这一行是将编码转为utf-8否则中文会显示乱码。
    #infor = p.text.strip().encode('utf-8')
    #print(html.text)
    getData(html, src)  # 首页链接和其他页不同,所以单独获取信息
    #urls = re.findall('href="?start='+25*range(1,2,3,4,5)+'&filter=', html)  # re获取获取跳转链接的href
    p=0
    for i in range(1, 250):
        if i % 25 == 0:
            urls =len((re.findall("/?start="+str(i)+"&filter=", html)))  # re获取获取跳转链接的href
            p=p+urls
    for u in range(p-2):  # 匹配到的跳转链接最后两个重复,需去掉
        next_url = 'https://movie.douban.com/top250?start='+
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值