Python编写网络爬虫带model

Python编写网络爬虫带model

以http://zuidazy.net电影网站为例,实现步骤如下:

一、分析网站:

分析网站的代码结构:如网址,需要采集的代码取,建设使用谷歌浏览器
如图:在这里插入图片描述
解释:1.为网址栏,分析网址的相同部分及不同部分
2.为按F12查看源码,为需要采集的代码

二、编写网站所有网页的遍历如下(文件名称:index.py)

from reptileTest import qu
url=""
for i in range(1,423):
    if i==1:
        url="/?m=vod-index.html"
    else:
        url="/?m=vod-index-pg-"+str(i)+".html"
    qu(url,i)

注:该段代码为对网站所有网站的完整遍历,以方便获取所有电影的真实路径

三、编写向指定网站发起访问请求(文件名称:reptileTest.py)

import urllib.request

from requl import requ

def qu(jia,ii):
    print("正在获取第:" + str(ii) + "页的电影信息")
    url = "http://zuidazy.net"+jia
    req = urllib.request.Request(url)
    res = urllib.request.urlopen(req)
    html = res.read().decode("utf-8", 'ignore')
    # print(html)
    requ(html)
    print("获取第:"+str(ii)+"页的电影信息结束")

四、使用BeautifulSoup进行最终的抓取(文件名称:requl.py)

import urllib.request
from bs4 import BeautifulSoup

def requ(html):
    web = BeautifulSoup(html, features="html.parser")
    # print("开始抓取")
    daima = web.select("ul > li > span > a")
    for h in daima:
        # 通过主页进入某个电影的信息页面
        # 抓取新的url 这次抓取,需要抓取电影的:图片路径,电影名称,主演,类型,及播放地址等
        url1 = "http://zuidazy.net/" + h.get("href")
        req1 = urllib.request.Request(url1)
        res1 = urllib.request.urlopen(req1)
        html1 = res1.read().decode("utf-8", 'ignore')
        web1 = BeautifulSoup(html1, features="html.parser")
        # daima1 = web1.select("div[class=vodInfo]")
        # print(daima1)
        # 获取电影图片
        daima1 = web1.select("img[class=lazy]")
        for dao in daima1:
            dao.get("src")
            print("该电影的图片地址:------------"+dao.get("src"))

        # 获取电影名称
        daima1 = web1.select("div[class=vodh] > h2")
        for dai in daima1:
            print(dai.get_text())
        # 获取播放类型
        daima1 = web1.select("div[class=vodh] > span")
        for dai in daima1:
            print(dai.get_text())
        # 获取评分
        daima1 = web1.select("div[class=vodh] > label")
        for dai in daima1:
            print(dai.get_text())
        # 获取别名
        daima1 = web1.select("div[class=vodinfobox] > ul > li:nth-of-type(1) > span")
        for dai in daima1:
            print(dai.get_text())
        # 获取导演
        daima1 = web1.select("div[class=vodinfobox] > ul > li:nth-of-type(2) > span")
        for dai in daima1:
            print(dai.get_text())
        # 获取主演
        daima1 = web1.select("div[class=vodinfobox] > ul > li:nth-of-type(3) > span")
        for dai in daima1:
            print(dai.get_text())
        # 获取电影类型
        daima1 = web1.select("div[class=vodinfobox] > ul > li:nth-of-type(4) > span")
        for dai in daima1:
            print(dai.get_text())


        # 网站图片代码
        # <img class="lazy" src="http://tupian.tupianzy.com/pic/upload/vod/2018-10-04/201810041538621879.jpg" alt="青春猪头少年不会梦到兔女郎学姐">

抓取结束:
在这里插入图片描述

model源文件下载地址:Python编写网络爬虫带model
请下载这个model: Python编写网络爬虫优化版model

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值