分享135个ASP源码,总有一款适合您

103 篇文章 2 订阅

ASP源码

分享135个ASP源码,总有一款适合您

下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,

135个ASP源码下载链接:https://pan.baidu.com/s/1rHFniMK56P-_qXNY9kKihg?pwd=l95g 
提取码:l95g

Python采集代码下载链接:https://wwgn.lanzoul.com/iKGwb0kye3wj

新酷数据网站管理系统 v10.018.78
云枫工作室企业网站源代码(.net) v4.0
爱革CMS(公司网站)  v2.84
马克斯CMS(maxcms) v3.0.2010.06.21
GuardianGenius(守护精灵)网站安全必备巅峰之作[ASP+PHP] 最终版
畅无忧视频分享系统 v3.0
小游戏CMS XyxCms  v1.3
无名单用户微博 v1.2 beta
唠叨网新闻内容源码
LOUHOME职称考试单词查询 V1.0
深度学习(asp)整站系统 v3.5.1
TLCMS 小偷动漫漫画程序 v2010.06.10
LOUHOME全国公交线路查询
历史上的今天 v1.0
快玩小游戏源码 v2.0
力诺家教网站源码 v2010
URL转发系统 v1.10.614
米歌MWM实用企业网站管理系统 v3.1
淘宝画报(自动更新免维护

 

   def sprider(self,title_name="NET"):

        """
       采集
       PHP https://down.chinaz.com/class/572_5_1.htm
       NET https://down.chinaz.com/class/572_4_1.htm
       ASP https://down.chinaz.com/class/572_3_1.htm
       Python https://down.chinaz.com/class/604_572_1.htm
            https://down.chinaz.com/class/608_572_1.htm
        微信 https://down.chinaz.com/class/610_572_1.htm
       Ruby   https://down.chinaz.com/class/622_572_1.htm
       NodeJs https://down.chinaz.com/class/626_572_1.htm
       C https://down.chinaz.com/class/594_572_1.htm
       :return:
       """
        if title_name == "PHP":
            self.folder_name = "PHP源码"
            self.second_column_name = "572_5"
        elif title_name == "Go":
            self.folder_name = "Go源码"
            self.second_column_name = "606_572"
        elif title_name == "NET":
            self.folder_name = "NET源码"
            self.second_column_name = "572_4"
        elif title_name == "ASP":
            self.folder_name = "ASP源码"
            self.second_column_name = "572_3"
        elif title_name == "Python":
            self.folder_name = "Python源码"
            self.second_column_name = "604_572"
        elif title_name == "JavaScript":
            self.folder_name = "JavaScript源码"
            self.second_column_name = "602_572"
        elif title_name == "Java":
            self.folder_name = "Java源码"
            self.second_column_name = "572_517"
        elif title_name == "HTML":
            self.folder_name = "HTML-CSS源码"
            self.second_column_name = "608_572"
        elif title_name == "TypeScript":
            self.folder_name = "TypeScript源码"
            self.second_column_name = "772_572"
        elif title_name == "微信小程序":
            self.folder_name = "微信小程序源码"
            self.second_column_name = "610_572"
        elif title_name == "Ruby":
            self.folder_name = "Ruby源码"
            self.second_column_name = "622_572"
        elif title_name == "NodeJs":
            self.folder_name = "NodeJs源码"
            self.second_column_name = "626_572"
        elif title_name == "C++":
            self.folder_name = "C++源码"
            self.second_column_name = "596_572"
        elif title_name == "C":
            self.folder_name = "C源码"
            self.second_column_name = "594_572"
        #https://down.chinaz.com/class/594_572_1.htm


        first_column_name = title_name # 一级目录
        self.sprider_category = title_name  # 一级目录
        second_folder_name = str(self.sprider_count) + "个" + self.folder_name #二级目录
        self.sprider_type =second_folder_name
        self.merchant=int(self.sprider_start_count) //int(self.max_pager)+1 #起始页码用于效率采集
        self.file_path = self.save_path + os.sep + "Code" + os.sep + first_column_name + os.sep + second_folder_name
        self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name+ os.sep + self.folder_name
        BaseFrame().debug("开始采集ChinaZCode"+self.folder_name+"...")
        sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
        down_path="D:\\Freedom\\Sprider\\ChinaZ\\Code\\"+first_column_name+"\\"+second_folder_name+"\\Temp\\"
        if os.path.exists(down_path) is True:
            shutil.rmtree(down_path)
        if os.path.exists(down_path) is False:
            os.makedirs(down_path)

        if os.path.exists(self.save_path ) is True:
            shutil.rmtree(self.save_path )
        if os.path.exists(self.save_path ) is False:
            os.makedirs(self.save_path )
        chrome_options = webdriver.ChromeOptions()
        diy_prefs ={'profile.default_content_settings.popups': 0,
                    'download.default_directory':'{0}'.format(down_path)}
        # 添加路径到selenium配置中
        chrome_options.add_experimental_option('prefs', diy_prefs)
        chrome_options.add_argument('--headless') #隐藏浏览器

        # 实例化chrome浏览器时,关联忽略证书错误
        driver = webdriver.Chrome(options=chrome_options)
        driver.set_window_size(1280, 800)  # 分辨率 1280*800

        # driver.get方法将定位在给定的URL的网页,get接受url可以是任何网址,此处以百度为例
        driver.get(sprider_url)
        # content = driver.page_source
        # print(content)
        div_elem = driver.find_element(By.CLASS_NAME, "main")  # 列表页面 核心内容
        element_list = div_elem.find_elements(By.CLASS_NAME, 'item')

        laster_pager_ul = driver.find_element(By.CLASS_NAME, "el-pager")
        laster_pager_li =laster_pager_ul.find_elements(By.CLASS_NAME, 'number')
        laster_pager_url = laster_pager_li[len(laster_pager_li) - 1]
        page_end_number = int(laster_pager_url.text)
        self.page_count=self.merchant
        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(driver,element_list,self.page_count,page_end_number,down_path)
                    pass
                else:
                    if self.haved_sprider_count == self.sprider_count:
                        BaseFrame().debug("采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        self.builder_word(self.folder_name, self.word_content_list)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    #(self.base_url + "/sort/{0}/{1}/".format(url_index, self.page_count))
                    #http://soft.onlinedown.net/sort/177/2/

                    next_url = self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name, self.page_count)
                    driver.get(next_url)

                    div_elem = driver.find_element(By.CLASS_NAME, "main")  # 列表页面 核心内容
                    element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
                    self.sprider_detail( driver, element_list, self.page_count, page_end_number, down_path)
                    pass
                #print(self.page_count)
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                print("sprider()执行过程出现错误:" + str(e))
                sleep(1)

友情链接交换平台全功能版 v2.0 build 20100627
起点影院小偷程序后台管理 v1.2
Senlon免费在线算命系统(后台带采集) v3.1
三顾购物系统化妆品版 v1.0
SIXU超简单小巧的留言板 v1.1
LOUHOME关公灵签真解 v1.0
25175户籍管理系统 v2.0
谷鸽搜索系统 Googie sp2 品牌版
上网吧整站系统 alpha_2009
方锐个人主页 终结版
Xmark Template Engine  V1.1.0 Beta
LOUHOME本草纲目鉴赏 v1.0
LOUHOME中国民航航班查询 v1.0
 



    def sprider_detail(self, driver,element_list,page_count,max_page,down_path):
        """
        采集明细页面
        :param driver:
        :param element_list:
        :param page_count:
        :param max_page:
        :param down_path:
        :return:
        """
        index = 0
        element_array=[]
        element_length=len(element_list)
        for element in element_list:
            url_A_obj = element.find_element(By.CLASS_NAME,  'name-text')
            next_url = url_A_obj.get_attribute("href")
            coder_title = url_A_obj.get_attribute("title")
            e=coder_title+"$"+ next_url
            element_array.append(e)
            pass
        if int(self.page_count) == int(self.merchant):
            self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
            index=self.sprider_start_index
        while index < element_length:


            if os.path.exists(down_path) is False:
                os.makedirs(down_path)

            if self.haved_sprider_count == self.sprider_count:
                BaseFrame().debug("采集到达数量采集停止...")
                break

            #element = element_list[index]
            element=element_array[index]
            time.sleep(1)

            index = index + 1
            sprider_info="正在采集第"+str(page_count)+"页的第"+str(index)+"个资源,共"+str(max_page)+"页资源"
            BaseFrame().debug(sprider_info)
            next_url=element.split("$")[1]
            coder_title=element.split("$")[0]
            # next_url = element.find_element(By.TAG_NAME, 'a').get_attribute("href")
            # coder_title =element.find_element(By.TAG_NAME, 'img').get_attribute("title")

            try:
                codeEntity = SpriderEntity()  # 下载过的资源不再下载
                codeEntity.sprider_base_url = self.base_url
                codeEntity.create_datetime = SpriderTools.get_current_datetime()
                codeEntity.sprider_url = next_url
                codeEntity.sprider_pic_title = coder_title
                codeEntity.sprider_pic_index = str(index)
                codeEntity.sprider_pager_index = page_count
                codeEntity.sprider_type = self.sprider_type
                if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
                    SpriderAccess().save_sprider(codeEntity)
                else:
                    BaseFrame().debug(coder_title+next_url + "数据采集过因此跳过")
                    continue

                driver.get(next_url)  # 请求明细页面1
                if SeleniumTools.judeg_element_isexist(driver, "CLASS_NAME", "download-item") == 3:
                    driver.back()
                    BaseFrame().debug(coder_title+"不存在源码是soft因此跳过哦....")
                    continue
                print("准备点击下载按钮...")
                driver.find_element(By.CLASS_NAME, "download-item").click() #下载源码
                sleep(1)
                result,message=SpriderTools.judge_file_exist(True,240,1,down_path,self.filter_down_file,"zip|rar|gz|tgz")#判断源码
                if result is True:

                    sprider_content = [coder_title, self.save_path + os.sep +"image"+ os.sep + coder_title + ".jpg"]  # 采集成功的记录
                    self.word_content_list.append(sprider_content)  # 增加到最终的数组
                    self.haved_sprider_count = self.haved_sprider_count + 1
                    BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
                    time.sleep(1)
                    driver.back()

                    coder_title = str(coder_title).replace("::", "").replace("/", "").strip() #去掉windows不识别的字符

                    files = os.listdir(down_path)
                    file_name = files[0]  # 获取默认值

                    srcFile = down_path + os.sep + file_name
                    file_ext = os.path.splitext(srcFile)[-1]

                    dstFile = down_path + os.sep + coder_title + file_ext
                    os.rename(srcFile, dstFile)
                    srcFile = dstFile
                    dstFile = self.save_path + os.sep + coder_title + file_ext

                    shutil.move(srcFile, dstFile)  # 移动文件

                else:
                    files = os.listdir(down_path)  # 读取目录下所有文件
                    coder_title = str(coder_title).replace("/", "")  # 去掉windows不识别的字符
                    try:
                        if str(message)=="0个文件认定是False":
                            BaseFrame().error(coder_title+"文件不存在...")
                            shutil.rmtree(down_path)  # 如果没下载完是无法删除的
                            pass
                        else:
                            BaseFrame().error("检测下载文件出错可能原因是等待时间不够已经超时,再等待60秒...")
                            time.sleep(60)
                            shutil.rmtree(down_path) #如果没下载完是无法删除的
                            #清空数组
                            self.filter_down_file.clear()
                    except Exception as e:
                        # 使用数组append记录文件名字 移动的时候过滤
                        self.builder_filter_file(files)
                    pass
            except Exception as e:
                BaseFrame().error("sprider_detail()执行过程出现错误:" + str(e))
                BaseFrame().error("sprider_detail()记录下载的文件名")
                # 使用数组append记录文件名字 移动的时候过滤
                files = os.listdir(down_path)  # 读取目录下所有文件
                self.builder_filter_file(files)

        if(int(page_count)==int(max_page)):
            self.builder_word(self.folder_name,self.word_content_list)
            BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")


七彩天空问问 v1.0
25175学生水电消耗查询系统 v2.1.1
6号联盟情感站小偷 v1.0
qqnc.cc域名WHOIS查询系统显示记录版 v1.0
XML文章系统 v1.13
LOUHOME考研单词查询
xluoflex服务查询系统 flex+.net+webservice v1.0
ku6影视小偷 v2.0
快玩小游戏评价系统 v1.0
毕节热线祝福程序 v3.0
baigo BBS v6.1.1
两个人的日记 v2.0
ShopWind网店系统 v1.13
七彩天空聚合搜索 v1.5
25175监督检查管理系统 v2.0.1 build 0608
ip地址查询(拍搜) v10
迷你博客多用户版 iBlog v3.1
教师绩效考核管理系统 v1.0
LOUHOME汉语大辞典
LCMS企业网站管理系统 v1.2 UTF-8
ajax域名查询 v1.0
世界杯比赛竞猜+世界杯数据完美采集版 v1.0
LOUHOME经典诗词全集 v1.0
TLCMS 小偷美眉写真程序 v2010.06.05
易达CMS v1.9
WAP2.0电子商务源码 v1.0
普瑞森英文自助友情链接系统 v1.0
spy学生选课系统(毕业设计) v1.1
25175 c3i系统评估指标体系 v1.5
远航个人博客系统之热浪 v2.0
启明星Dotnetcms Portal  v1.2
xmask问答系统(asp) v1.0
网站快车政府版之数字化党建 v2.2010.06.02
草根三剑客之CMS
草根三剑客之bbs
草根三剑客之book
25175学生成绩信息档案管理系统(中专职高版)
云枫工作室企业网站系统.net v2.0

齐齐电子书小偷(伪静态+后台) v1.0
齐齐外挂网小偷(伪静态+后台) v1.0
金凯大酒店网站管理系统 2010完整无限制版
天气预报
LouHome中药名方查询 V1.0
凌讯酒店宾馆管理系统 v1.0
教育教训网 v1.0
可换四种风格的农业局网站
淘特ASP木马扫描器 v1.1
鼎祥多用户在线客服系统 v2.0
晓宇网站导航换肤版 v2010.0515
Fate.风铃留言本 v1.1
智达简洁留言本 v1.1
LouHome名人名言查询 v1.0
ASP缓存Gravatar头像实例演示 v1.0
Shopxp购物系统Html版 v2.0
玩名堂整合版 v1.0
LouHome民间偏方查询 v1.0
云枫企业网站第四版 v1.0
环保时代家庭在线记账系统 v3.0
 

 

博客投稿程序
25175英语等级证书查询系统 v1.0
无名网站管理系统nameless CMS  v1.1
商达讯网店系统淘宝拍拍分店版 v9.50
九大搜索引擎收录与反向链接查询源码 v2.0
滚聊网随机聊天整站源码  v2.0
直销联盟(自助申请链接系统) v1.3
便民网址导航系统(生Html) v1.4
翎动广告快递物流全站 v3.0
良精地方分类信息网站管理系统
房产供求信息网站系统 v1.1
分类信息网源码 v1.0
TLCMS 小偷小说程序 v2010.05.22
TLCMS 高清QVOD电影  v2010.05.23
Z-blog 投稿插件 WOWO_Send v2.0
草根单文件BBS
草根单文件CMS
H_conly艺术类工作室 v3.0
单文件网页特效管理系统
IntCrm客户资料管理系统 v3.0
LOUHOME中医针灸推拿查询 v1.0
LouHome美容减肥抗衰老秘方 v1.0
LouHome中医养生保健方略 v1.0
LouHome中医治疗常见病方略 v1.0
asp成绩查询最简系统 v1.1
AspBar文章管理系统 v3.4
LOUHOME在线成语词典 v1.0.1
LouHome域名吉凶查询 v1.0
4199.cn大型游戏门户网站 v2.1
酒店预订网站源码(带后台) v7.0
冠格建站系统(办公用品清爽版) v1.40
冠格建站系统(家用电器清凉秋天) v1.40
风易在线销售系统 v3.1.1
苦茶短信网 v1.0
LOUHOME药酒方略查询 v1.0
LouHome中医验方查询 v1.0
LOUHOME药粥谱 v1.0
ASP留言本 v1.02
Xluo通用权限管理系统 v1.0
冠格建站系统(服装鞋帽之时尚潮流) v1.40
冠格建站系统(电子之发展科技) v1.40
冠格建站系统(电器之蓝色理想) v1.40
搜它呀企业网站升级版 v3.0(全伪静态)
西盟游戏帐号兑换系统 v2010 sp1
LIYINGBIN留言本[无刷新] v2.0

import os


# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
    dirs = os.listdir(dirPath)  # 查找该层文件夹下所有的文件及文件夹,返回列表
    for currentFile in dirs:  # 遍历列表
        absPath = dirPath + '/' + currentFile
        if os.path.isdir(absPath):  # 如果是目录则递归,继续查找该目录下的文件
            search_file(absPath, fileName)
        elif currentFile == fileName:
            print(absPath)  # 文件存在,则打印该文件的绝对路径
            os.remove(absPath)

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。
 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值