分享58个ASP影音娱乐源码,总有一款适合您
58个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1dk7QLpuyFKILbsNP3jIKvA?pwd=d3pb
提取码:d3pb
Python采集代码下载链接:采集代码.zip - 蓝奏云
我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
笑死你笑话程序带数据
电影网址大全 V20141023
马克斯CMS(Maxcms) V5.1
君子兰图霸(笑话版) V1.0
简单个人视频站 V1.0
ASP漂亮游戏工作室网站源码 V1.0
在线看民影视 V2.2
Feelink(原IShow) 仿6间房视频秀直播系统 V3.0
露珠电影站 V3.07
马克斯MAXCMS资源采集插件 V4.0
芝麻听书网2014新春版 V2.05
微趣网源码2013加强版 V2.0
高速电影程序GsCms V1.5 UTF-8
HIBOCMS影视建站系统 V1.4
马克斯MAXCMS资源采集插件 V6.4
高速电影程序GsCms V1.2 GBK
人人看电影模版商业版 V4.0
马克思迅播采集插件 V1.1
靓靓多功能直播系统 V1.0
趣味小游戏网站 V2012
海浪音乐盒 V3.5 正式版
苹果电影程序ASP V7.7 20130319
心情MTV网站 V2.0
非零坊手机笑话 V3.6.6
芝麻听书网源码 V4.0
飘花影视CMS系统 V1.0
高仿5173游戏交易网站
海浪音乐盒_Mini接口版 V3.3
中国DJ派街舞俱乐部网站程序
56视频分享站源码
Movcms! 2X
飞飞ASP影视系统(ADNCMS) V4.8 Build 120927
78电影网源码 V4.6
TV12345网络电视直播程序 V1.0
马克斯Max4.0自动采集插件 V4.0
仿迅雷看看电影整站程序 V4.0
追梦FLV迷你播放器 V1.0
Nfl.Asia网络电视系统(带接口)
追梦MP3在线播放器Flash版 V1.0
QVODCMS点播专家 V4.0.2
亚美德影院源码 V1.2
Q友乐园网 V4.0
酷博在线音乐网络插件版 V1.0
酷博MTV免维护插件版 V1.0
七禧舞曲管理系统修改版 V1.0
哈呱在线网络电视源码接口版
笑话大全 V1.0
DJ音乐整站程序 V3.0
马克斯CMS(Maxcms)资源采集插件 V5.0.2
594Dj网站源码 V4.0
晴天电影系统(带自定义Gvod采集) V3.2 Build 20110125
TVB精品影视网商业版(带数据带采集)
好丽盈舞曲CMS管理系统 V3.0
摄影网站源码
小石头音乐网完整版 V2.0
MAXCMS定时采集插件 V1.0.0
蓝光电视棒小偷V2.5纯净版
魅魔电影程序(MacCMS ASP) 6.1 20111128
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。