分享70个ASP影音娱乐源码,总有一款适合您
70个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1NEC63jjo2_dUtQ6oPlHRVg?pwd=3su2
提取码:3su2
Python采集代码下载链接:采集代码.zip - 蓝奏云
我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
听听好易网络电台
看看好易聚合电影生成HTML系统 V1.0
豆角网电影搜索程序 V1.0
Flash音乐程序
草根文学网我要算命超级娱乐搞笑程序
马克斯电影采集插件通用版
马克斯5.0采集插件
一特音乐网站管理系统Beta2.0
芜湖播客家园 V4.5
DJ527舞曲网整站程序 V3.0最终版(带80G数据)
中国象棋Online V2008 Build 0313
武林音乐网HTML版V3.0
永州宏网电视直播程序
海涯视频分享平台整站源码 V1.2
时代在线影院
品络影视系统1.0
全球视听网(全站生成Html)
简单音乐EasyMusic DIV+CSS+Ajax V1.0
CenFun Music Player V2.1 ASP在线音乐管理程序 (CMP)
新酷影视P2p采集3.0版本
秋风电影采集系统 V3.1
手机铃声搜索引擎 V1.0
旧天堂网络电台
千千静听 网页播放器 后台管理版
云网TMS影视系统 V6.0 正式版(带商业模板及数据)
蚂蚁影院修改版
中国DJ嗨吧V5.0
飞跃网络FLASH音乐程序V2.0完整版
CcP2P在线电影小偷系统V1.0
终点小说清爽模板
乐涛涛音乐网免费版11-07更新
杀毒啦电影程序
脑筋急转弯程序 Asp版
百灵鸟音乐网V200710版(全站生成Html 无音频服务器用户首选)
新酷影视2.1调用代码
新酷影视2.0数据库升级程序
安兴影视Div+Css生成Html
我好找视频吧(仿UUME带数据DIV+CSS)
马克斯FLV电影程序 V3.1
白蒲视频播客系统V2.5
要听舞曲网V1.3
三九电影迅雷地址采集版
重庆宽频P2P电影程序1.0
老婆Dj舞曲网程序V3.0(Div+Css)
哇一声分享网(仿豆瓣网)
手机电影城(收费下载程序)
土豆音乐网V1.0
252u DJ舞曲小偷
11CT影视程序
咸宁休闲影院P2P影视采集系统2.0
4GP手机电影程序
混音DJ程序
黑色风格带采集生成HtmlP2P电影系统
BOBO免费电影程序
绥化舞曲网 V2.0
影视中华免费电影程序
绿色版自动更新歌曲免费DJ播放器
舆星DJ舞厅2007新版
承诺爱你 Flash主站 完美修改版本
点点音乐
播客平台
初二(10)班音乐小偷程序
2007最新影音程序(-防土豆网风格-)
711网络FLASH音乐网站管理程序V3.0(6.15b免费版本)
Exobud MP 点歌扩展程序 V1.1 Build 0523
千千静听-网页版播放器
天空音乐Vista版
PPFEI带采集生成HTML电影程序
宁都DJ吧第二版
舆星音乐程序2007最新版
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。