分享99个ASP整站程序源码,总有一款适合您
99个ASP整站程序源码下载链接:https://pan.baidu.com/s/1nKDDakDyOid5H8aXM87BzA?pwd=8i5g
提取码:8i5g
Python采集代码下载链接:采集代码.zip - 蓝奏云
我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
Web590网上书店系统
小天设计1.0
星蒴网站管理系统 V1.0
93度网站管理系统
中国风行天下网络企业网站 V2.0
企业网站智能管理系统中英文版 V3.5
中国网址库(清爽终结版)
易华自助系统企业精简版
60度 2006版(内核动易2006最新程序)
FY CMS 3.0免费版本
仿百度链程序
玉溪人才招聘网
爱情公寓整站程序
帅气男孩个人网站(破解版)
轩魂国度设计企业VS个人全站V4.0
D摘网 V2.0 完整版
精心设计网管理系统V1.0版本
小屋工作室2006-4-10更新
265888资源空间
大舜网络整站系统 V0.13.3 Build 0420
徐州百姓生活网V8.2破解版
精诚网络全站程序
最新仿黑软基地新云网站管理系统
俪人网整站程序
驴友格子Sql V1.2
FLASHZ网采集程序(直接生成HTML)
嘉缘人才网站自建系统V4.01免费版
清新淡雅的个人主页整站程序
世纪飞星个人主页程序 V2.0
好玩吧免费百万流量格子
行业信息网 2.0
商城网店系统整站程序
中国晴网信息港2.0(带万数据)
Myweb企业网站系统综合版
幸运格子V2.0
QQ娱乐资源网音乐插件版
简单生活V2.2个人网
烧饼工作室2.0版(漂亮的门户网站)
[韩式风格]皖西学院计应0401班同学录V2.0无错版!铜陵何飞倾情奉献!
中国建站吧-格子联盟美化版
奉新娱乐网
合肥达美装饰工程安庆分公司
倚锋科技智能网站系统 V3.0
恒浪整合动易2005+网友翻唱+动网 V7.1sp1+Oblog V3.12 整合版
满洲里飞雨工作室 V3.14
惠州生活网鲜花网整站程序
倚锋科技旅游系统2.0
半轮秋整站程序1.2
暗礁工作室全站
F-Zone V1.0 仿Q-ZONE程序无组件版
ReaKun个人主页 V2.0
落日全站╅蓝色贝壳╆美化版 V4.0
飞扬网络CMS2006免费版
终点文学SQL清风修改版
Cc驿站Version1.5(完美版)
个人家园申请系统
我搜我房专业房地产信息网站(仿搜房网)
BMCMS 1.0企业建站系统
V2兴业视窗全站程序
孤鹜网络整站系统V1.01
老笨大型社区信息港综合门户程序
亚特网站管理系统(TradeCMS) V2006
自由地带 V1.0.1127
王子俱乐部 整站系统(FLASH 站)
茂名信息网3.0加强版
笨笨滴窝全站程序 V1.0
一个人的空间[完整版]
唯雪个人求职网
康网博客2006 V1.11
运城生活网最新4.5升级版
安庆创意百货公司网站管理系统
爱的风狂 V1.0
网盟轩V1.0修正版
广安计算机信息中心整站
动易2005SP2核心-7COLOR工作室整站程序
60度模板(Edron 网络 杨健设计 生鱼片网络)
17UX『一起游戏装备交易』V6共享版
FLASH动漫网
七彩天空整站程序
Wj8.Net春来春往酷站大全
离子星全站(含QQ迷你门户)
七夕情人节
聂枫设计 V2.1
合肥高校联盟 V2.0 完整版
民政信息
家住蕲春全站V2.1
金无忧多用户博客
仿百度贴吧
52ks博摘
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
紫色雨真爱永恒版
我就爱乐娱乐站
宇森流量广告交易平台文本链
汉中泰奇互动整站
优秀企业整站(英文版)
优秀企业通用网站
媒体中国韩国酷站网址大全
美加喜房产中介程序
飞马驿站全站程序
老崔家园整站程序[后台管理补丁]
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。