分享83个ASP影音娱乐源码,总有一款适合您
83个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1qjmcHboL1b_HgrNKd3V1_Q?pwd=05wx
提取码:05wx
Python采集代码下载链接:采集代码.zip - 蓝奏云
我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
小军网络电视2.0ASP版
爱你网音乐播放器1.0
金乡娱乐网-音乐站(带完整数据库)
听听听
中国影视基地第二版
亿人音乐 V1.0
笨笨音乐系统简易版
罗村在线影视系统HTML版
揭西在线影院
梧州藤县Flash动漫网
非要歌词网四万歌词MSSQL共享版
亚视网宽频V1.0商业版电影程序
银星网Flash动漫频道
揭西DJ嗨网
一套专门用在网吧的主页程序
阿龙DJ音乐厅
七兔音乐网2.0
音乐网站《新年风格》
闪吧Flash小偷程序
阿男智能音乐更新 V1.8
慕云小屋音乐整站
七兔音乐网
广东E时代影院蓝色XP免费版
长乐音乐网2004版
浪子网络的音乐程序
石角DJ站防SQL版
第九互动MTV自动更新版
罗村在线影视系统XP1
眉州FLASH频道2.0(带万条数据)
欣欣棋牌娱乐中心
大家网在线电影&BT下载搜索引擎
广东E时代Flash娱乐网
广东E时代影音网站
金乡娱乐网-电影程序
53331.Com MTV站 生成HTM商业版
23得6音乐街 简单电影程序 V1.2
热点都市修改音乐小偷-
亚视网宽频防盗链版V3.0免费电影程序
2ΠR娱乐网点广告免费电影程序
莹莹桌面秀 M0201
莹莹动漫客栈 M0201
长乐音乐网提供下载
Bt电影下载站生成Html
『 爱你网 幻雪爱你版 』 播放器
热点都市HttpWww.Rdcity.Com FLASH站--天空小偷
大家电影BT搜索
罗村在线电影程序XP 多功能广告加密版
东石DJ先锋仿(中国DJ嗨嗨网)第二版
鸿鹄の心情网络电视
啊猪动漫FLASH程序(圣诞+新年)版
广东E时代音乐程序
广东E时代Flash简洁版
AspShop 脑筋急转弯程序 V9.21 修正版
无忧岛音乐网V04.11版本
广东E时代影院商业版
Flash520动漫网(自带1000多个数据绝对有效)
520免费电影网系统黄色HTML1.01版 免登陆免注册版本
冰风免费电影美化版
Bb音乐播放器
23得6简单影院
中国学生资讯网校园影视联盟
紫仙阁免费影视系统V2005版
222mov免费电影(带2万数据库,防注入)
山东DJ联盟V2.0加强版
阿妙热音乐屋
粤西明珠笑话频道
悬念电影小偷 1.0修正版
罗村在线-音乐频道美化版
269时空音乐网
音乐城堡2005MX版
后宫娱乐笑话小偷程序
3T 游戏网
西部摄影 V5.0整站程序
超级电影小偷2.0
一信DJ舞曲网小偷程序
QQ185音乐地盘(第二版)
泡泡影视城 V0.2
天下影院(Txkk.Com)
糊狸FLASH动画程序 V6.0
爱听音乐网
帝王影视收费系统无错版V1.2
一信DJ迪吧
佳佳DJ站音乐程序 V2.0
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。