分享Python采集55个PHP影音娱乐源码,总有一款适合您

分享Python采集55个PHP影音娱乐源码,总有一款适合您
 

Python采集的55个PHP影音娱乐源码下载链接:https://pan.baidu.com/s/1ngEjLtBCATM7FfEfq0H0qA?pwd=ipzo 
提取码:ipzo

 

Gxlcms有声小说 V1.1.4.20150619

Seacms海洋影视管理系统 V5.8

淘乐云点播 V1.0

心雨电台 V1.0

飞飞影视Cms系统 V3.0 Bulid20150416

苹果CMS手机版整站 V7.X Bulid2015.1.30

飞飞二次开发SEO版本 V1.0

飞飞大气简洁蓝色模板 V2.8

前卫音乐系统 V3.5 Build20141125

飞飞PHP影视系统(PPVOD) V2.8 Bulid1117 正式版

高仿金山影视飞飞模板 V2.8

MYCMS有声小说采集程序 V7.7.5

ThinkMusic音乐分享程序 V1.7

SKYUC后台采集规则 V2014

暗月音乐播放器API V1.0

一一网视频源码(修复后台采集版) V3.4

威盘音乐外链-会员版 V1.8.5.2

Loowei笑话程序 V2.0.4

飞飞Cms蓝色模板 V2.9

import os
import shutil

import requests
from bs4 import BeautifulSoup

from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent


class CNSourceCoder:
    base_url = "http://www.downcode.com"

    max_pager = 10  # 每页的数量 影响再次采集的起始位置.
    word_image_count = 5  # word插入图片数量 同时也是明细采集图片和描述的数量

    page_end_number = 0
    word_content_list = []
    haved_sprider_count = 0  # 已经采集的数量
    sprider_detail_index = 0  # 明细方法采集的数量 累加

GXCMS 光线CMS影视系统 V1.6

天空网络电影系统SKYUC! V3.4.2

天空网络电影系统SKYUC! For Linux V3.4.2

织梦电影网 带独立播放器 V5.7

君子兰图霸(搞笑版) V1.6

光线1.5完美转快播插件 V1.5

CupCMS V5.0 Free.20140215

VideoDB V4.0.0

苹果电影程序PHP V7.7 20140114

威盘音乐外链-SQL数据库版 V1.6 伪静态版

蘑菇视频管理系统 V1.1.0

PhpVideoPro V0.9.7

在线网络电视直播内核 V3.0 PHP完整版

A17CMS V1.6 Bulid2013.12.05

电影视频站模板 V1.0

陈老师云点播 V5.0

在线网络电视直播内核 V1.01 简易PHP版

大都云点播 V1.0


    def sprider(self,sprider_name,sprider_count,start_number,
                pager_number,sprider_type,is_show_browse,root_path,
                first_column_name,second_column_name,is_record_db):
        """
        http://www.downcode.com/sort/j_1_2_1.shtml
        :param sprider_name:
        :return:
        """
        self.first_folder_name=sprider_type.upper()
        self.base_path=root_path
        self.first_column_name = first_column_name
        self.second_column_name = second_column_name
        self.sprider_start_count=start_number
        self.is_record_db=is_record_db
        BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
        BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
        BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
        sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
        BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)

        self.second_folder_name = str(sprider_count) + "个" + sprider_name  # 二级目录也是wordTitle
        self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1  # 起始页码用于效率采集
        self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
        BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
        # 浏览器的下载路径
        self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
        BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
        # First/PPT/88个动态PPT模板/动态PPT模板
        self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
        BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")


        if os.path.exists(self.down_path) is True:
            shutil.rmtree(self.down_path)
        if os.path.exists(self.down_path) is False:
            os.makedirs(self.down_path)

        if os.path.exists(self.save_path) is True:
            shutil.rmtree(self.save_path)
        if os.path.exists(self.save_path) is False:
            os.makedirs(self.save_path)
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'gb2312'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
        page_end_number = 1
        page_end_url = ""
        page_end_title = soup.find("a", attrs={"title": '最后页'})
        page_end_url = page_end_title.get("href")
        if page_end_url is None or page_end_url == "":
            page_end_number = 1
        else:
            page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])

        self.page_count = self.merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                else:
                    if int(self.haved_sprider_count) == int(sprider_count):
                        BaseFrame().debug("sprider采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        SpriderTools.builder_word(self.second_folder_name,
                                                  self.word_content_list,
                                                  self.file_path,
                                                  self.word_image_count,
                                                  self.first_folder_name)
                        SpriderTools.copy_file(self.word_content_list,
                                               self.save_path,
                                               self.second_folder_name,
                                               self.file_path)
                        SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
                                                                           self.second_column_name,
                                                                           self.page_count)

                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'gb2312'
                    soup = BeautifulSoup(response.text, "html5lib")
                    element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                BaseFrame().error("sprider()执行过程出现错误:" + str(e))

88Song在线音乐网站源码 V1.0

蓝叶听歌房源码 V2.0

DZ免费插件[百度影音海量电影] V1.0

威盘音乐外链 V3.0

Gxl网飞飞影视系统模板 V2.8

PHPvod 视频点播系统 V2.5 For Php5.3.X UTF-8

PHPvod 视频点播系统 V2.5 For Php5.3.X GBK

Q客云点播 V0.1

在线生成视频截图程序 V1.0.1

CUPCMS 杯子内容管理程序 V5.0 Beta Build0803

超简洁功能强大Seo优化好电影模版

76云点播网页源码(4核驱动、完美支持拖动) V1.1

M9dy V1.0

易酷免费影视系统 V2.5

威盘音乐外链无数据库版 V1.1

Gxl网视频源码 V2.0

夏日PHP留言本管理系统 V0.2

程氏舞曲管理系统CMSPHP V3.0 UTF8

 

好了就写到这吧~你有时间常去我家看看,我在这里谢谢你啦~~~

我家地址:亚丁号-知识付费平台 支付后可见 扫码付费可见

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值