分享74个ASP整站程序源码,总有一款适合您

分享74个ASP整站程序源码,总有一款适合您
 

74个ASP整站程序源码下载链接:https://pan.baidu.com/s/12WvL3Z7LhmCwzhTPgxVZTA 
提取码:g64j

Python采集代码下载链接:采集代码.zip - 蓝奏云

我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见

import os
import shutil

import requests
from bs4 import BeautifulSoup

from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent


class CNSourceCoder:
    base_url = "http://www.downcode.com"

    max_pager = 10  # 每页的数量 影响再次采集的起始位置.
    word_image_count = 5  # word插入图片数量 同时也是明细采集图片和描述的数量

    page_end_number = 0
    word_content_list = []
    haved_sprider_count = 0  # 已经采集的数量
    sprider_detail_index = 0  # 明细方法采集的数量 累加

 

仿当下软件园的游戏黑客站源码

手机主题整站源代码

开心否非主流整站-新云4.0内核

711最新版ASP网站QQ在线咨询插件2009

月儿猫猫ASP生成HTML全站静态客户体验专业版V1.0

小计天空超清爽个人主页 V6

浦东订水送水网站系统

学校课件软件下载文章浏览网站源码

网人广告联盟系统 V2.0 Bulid 090226

Den123分类信息网 商业版

仿百度百科 V2.6 ASP标准版

Diggcms内容管理系统 V3.2

我爱看小说网站程序V3.19

中国标准企业网站管理系统

通用公司企业管理系统

黑酷DIV+CSS风格爱伊儿资源站FOR 新云3.1

三峡卫生健康网整站程序(带数据)

教师123课件ASP网站

711企业网站管理程序V2009

捣蛋网源码

月儿猫猫ASP生成HTML全站静态-自动同步更新BLOG程序V2.0Final

土豆丫头整站源码

月光使者FLASH个人主页

NETSOZ网址收藏夹+通讯录+记事本 NZFRS V3.0

百科知识搜索系统 V1.0 BETA

北极星教育资源站

蓝木物流货运信息系统V2.0

点云网络传媒V2.0

骇客基地CMS V2009112

中国家教网V1.0源程序(整站源码)

2009多风格新春节日祝福网站

鹏程网络V2.7高级完整版

2009新年祝福许愿墙-E站通

KesionCMS V5.5 Bulid 090106 UTF-8

北京国际快递公司

武汉玻璃钢网站完整无限制整站

智可蓝网管理系统2.0

那年下雪文化艺术传媒

泥鳅时尚网络FLASH整站源码

成都二手网

521yy智力测试(自带2052条数据)

Hsort校园二手信息 创业系统 V2.0 修正版

三丰物流信息网

星梦奇缘文学网源码下载(完整免费版)

易可查小资网YIKCA CMS 1.0

人在旅途博客(怀旧版)

YIKCA CMS

千聚网络

深山行者个人网站程序 V0.1

梦想不死个人主页 V2009

SmartWeb1.0.2企业智能建站系统-那什软件

翎风个人主页管理系统 V1.0

酷睿股票网站系统V2008.11.20精简版

60度CMS V1.0 Build 081031

彩虹QQ网程序源码

尚志学校网站整站程序

真爱空间中小学校网站整站程序 V2.6

木犁内容管理系统WoodPlow CMS V1.0 Beta2 Sql 修正版

QQ网名站(新云3.1内核)

大头友情自助链整站程序

酷睿股票网站系统全功能版V13.0901

郑州华康医院原程序

国内十佳分类信息网整站程序

泉州市安顺交通设施有限公司全站程序

冠龙科技多风格企业网站管理系统

深圳学车网整站

旋涡小筑 V3.0

太古软件公司整站

PWeb文章类建站系统 V3.0

NetPb网上党支部系统 V1.01

医学检验8门户网站

脑筋急转弯(含数据) V1.0

LPLY CMS 爱儿工作室 V2.0 Bulid 080914

信运08版网店系统


    def sprider(self,sprider_name,sprider_count,start_number,
                pager_number,sprider_type,is_show_browse,root_path,
                first_column_name,second_column_name,is_record_db):
        """
        http://www.downcode.com/sort/j_1_2_1.shtml
        :param sprider_name:
        :return:
        """
        self.first_folder_name=sprider_type.upper()
        self.base_path=root_path
        self.first_column_name = first_column_name
        self.second_column_name = second_column_name
        self.sprider_start_count=start_number
        self.is_record_db=is_record_db
        BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
        BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
        BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
        sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
        BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)

        self.second_folder_name = str(sprider_count) + "个" + sprider_name  # 二级目录也是wordTitle
        self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1  # 起始页码用于效率采集
        self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
        BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
        # 浏览器的下载路径
        self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
        BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
        # First/PPT/88个动态PPT模板/动态PPT模板
        self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
        BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")


        if os.path.exists(self.down_path) is True:
            shutil.rmtree(self.down_path)
        if os.path.exists(self.down_path) is False:
            os.makedirs(self.down_path)

        if os.path.exists(self.save_path) is True:
            shutil.rmtree(self.save_path)
        if os.path.exists(self.save_path) is False:
            os.makedirs(self.save_path)
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'gb2312'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
        page_end_number = 1
        page_end_url = ""
        page_end_title = soup.find("a", attrs={"title": '最后页'})
        page_end_url = page_end_title.get("href")
        if page_end_url is None or page_end_url == "":
            page_end_number = 1
        else:
            page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])

        self.page_count = self.merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                else:
                    if int(self.haved_sprider_count) == int(sprider_count):
                        BaseFrame().debug("sprider采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        SpriderTools.builder_word(self.second_folder_name,
                                                  self.word_content_list,
                                                  self.file_path,
                                                  self.word_image_count,
                                                  self.first_folder_name)
                        SpriderTools.copy_file(self.word_content_list,
                                               self.save_path,
                                               self.second_folder_name,
                                               self.file_path)
                        SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
                                                                           self.second_column_name,
                                                                           self.page_count)

                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'gb2312'
                    soup = BeautifulSoup(response.text, "html5lib")
                    element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                BaseFrame().error("sprider()执行过程出现错误:" + str(e))

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值