分享66个ASP江湖论坛源码,总有一款适合您

分享66个ASP江湖论坛源码,总有一款适合您
 

66个ASP江湖论坛源码下载链接:https://pan.baidu.com/s/1QuQTTtYlDPu8vT_a2PNsyg?pwd=wg6r 
提取码:wg6r

Python采集代码下载链接:采集代码.zip - 蓝奏云

我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见

 

import os
import shutil

import requests
from bs4 import BeautifulSoup

from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent


class CNSourceCoder:
    base_url = "http://www.downcode.com"

    max_pager = 10  # 每页的数量 影响再次采集的起始位置.
    word_image_count = 5  # word插入图片数量 同时也是明细采集图片和描述的数量

    page_end_number = 0
    word_content_list = []
    haved_sprider_count = 0  # 已经采集的数量
    sprider_detail_index = 0  # 明细方法采集的数量 累加

瓷都日记V3.3

cs专用留言本1.0版

咖啡设计留言本

网世如风留言本 v2.0 正式版UBB补丁

CnSide单用户留言板

网世如风留言本 v1.0 到 v2.0 版升级程序

网世如风留言本单用户 v2.0 正式版

A派留言本2号 春季版

JIMMY中文站留言簿 v1.07 正式版

热血论坛多用户留言版申请 系统豪华版

宁陵在线留言本

TV218.com中的留言程序

第二次分手留言本

武汉测绘科技大学98062班留言簿 v1.0.3316

QJ留言本

网世如风留言本单用户 v1.0(修改)

GuestBook2002 1.0 多用�袅粞员�

简单留言簿

君临天下ASP日记本 D1.5(普及版)

凤凰涅磐留言板

清新+漂亮+COOL留言本

蓝色伊人日记本(多背景清爽版)

问天留言本1.0

视听163XP留言

飞翔留言本多用户版本 v1.0

SICKBOOK v1.0

如风留言本 v1.4 春节版

TV218 留言板

蓝色梦幻留言板 Version 2.80 多用户正式版

漫野PBBS涂鸦板(pooBBS 3.4修改版)

漫野天空祈愿板

SLIGHTBOY.Wish Board v2.1(单用户 Single-User)

JIMMY中文站留言簿V1.07

西路网上日记本v1.0英文版

西路网上日记本ver1.0

西路ASP留言本WGB Ver3.0

网度留言本V1.01补丁版本

乔客多用户留言系统 V1.2

第7感觉留言本国际版

第7感觉留言本

蓝色梦幻留言板 Version 2.0 多用户版(作者发布)

MGbook ver 3.0(完全版)

很好的ASP留言本

最简留言簿2002.12.5单用户版

Q^G留言本 v 1.0

纵横多彩留言本 V2.0 多用户版

纵横超级留言本繁体版 ver 3.0

本色留言簿 ver2.0完美版

蓝色梦幻留言板 1.0

惊云留言本 单用户版 v1.1

惊云留言本 多用户版 v3.1

糊糊留言板 3.0 (多用户板)

异彩留言版 2.0

传奇留言薄1.2

JIMMY中文站留言簿 1.6

糊糊留言板(一个简单,可爱的asp留言板) 2.0

青城网留言本V1.0

月亮留言簿1.0

沙塘湾工作室留言薄

晨晨网络留言本(CNR Gbook)

一个小留言本程序

伊凡Fso+文本留言薄 V3.0

灵感之语留言本ILG V2.0 Beta4 Build1009

9seek留言本5.1

飞牌精品留言薄 3.0

传奇留言薄1.1

9seek留言本5.0sp1

94cool.ORG留言本 

心跳网络多用户留言本

今天软件园文本留言簿系统v1.1

风宇在线留言本2.0版 

怡情留言本V3.0

凡随成语接龙簿

浪子留言板豪华版

9seek留言本 3.0

网虫乐土留言本XP4.1版

追风流星留言薄多用户版

风雪极域留言板 V1.1.0

9seek留言本5.0(简繁)

客人订货留言系统

客人订货留言系统

蓝冰留言板 V1.0

漂亮女生留言薄

阿江ASP留言本 V1.0

渐飞留言版 V1.0

风雅颂留言本iBook v2.0

超小的留言本(黑色风格)

GBOOKXP 留言本

FLASH+ASP超酷留言本

雅梦静网留言本

风月留言簿 2.0 Build 0614

日式祈愿板之祈愿漂流瓶

Lhgb多用户留言版新春版

讯客分类信息互动版 v1.3

LeadBBS v9.2

鱼X小论坛 v1.01

简约论坛 v4.0

温州鞋城优化版 v3.1.1

GBBS微论坛 v3.3.2

Gbbs v3.2

动网QQ互联插件 v1.0

动网论坛WAP升级版+安卓手机客户端 v1.0

动网模板多格多色首页调用 v1.0 GB2312

动网论坛多格多色首页调用 v1.0 UTF-8

动网模板古典模板 v1.0

蓝冰论坛开源源码 v1.0

仿百度贴吧 v3.53 UTF8

snitz forum强化精简版 v1.9

林口分类信息论坛门户 v2.0.2

生命源头论坛 LifeYT-BBS v2.1

校园论坛 v0.1

Yxbbs v3.1 Build 20120502

YXBBS论坛美化版 v1.4

仙居信息港贴吧 v1.0

动网论坛Dvbbs8.3简洁修改版

全静态asp树型论坛 v3.5

海洋论坛 v2.1.1

2012心理学网社区论坛 v2.1

红码简约论坛博客版 v1.0

BingSNS社交互动平台 v2.5 微博控 build20111208

动网论坛Dvbbs v8.3 美化版

ASP红色迷你单版小论坛 v1.0

Bingsns v2.3 纯净版

鸿思特论坛ACCESS版 v2011_base

静态论坛 v3.1

鸿思特论坛MSSQL专业版 v2011_base

GuaGua小型论坛系统 v2.4.0

邯郸369论坛程序 v2011

齐吹网7chui v1.0

asprain论坛Access版 v1.3

asprain论坛sql版 v1.3

65343迷你小论坛 v3.0

js10单文件论坛 v1.0 build110410

维比网论坛 v2011.2.22_1

仿百度贴吧程序第三版 贴吧123 GB2312终结版

手机电脑同步管理论坛程序 v2.0 增强版

6KBBS(6K论坛) v8.0 build 20101201

阿赛树形论坛系统 v4

动力论坛社区 v1.1

动力论坛(VerI.I ACCESS版)

BBSxp 2008 8.0.5 SP2 Build 100905 GBK

飞天论坛FTBBS ASP v7.2 build 100916 静态GBK版

飞天论坛FTBBS ASP v7.2 build 100916 静态UTF-8版

小站长网-单文件起源论坛

baigo BBS v6.1

草根单文件BBS

草根单文件BBS

新维ASP论坛程序V2.1 SP2 BATE

FYPost枫叶贴吧留言管理系统 v2.3 新春特别版

XEBBS ASP论坛系统 v1.9

看看电影网在线论坛 v1.0

BBSGood.Speed v5.0.2

Web Wiz Forums(论坛系统) v9.64

BASISBBS最易论坛 v1.1.0

Aymi贴吧 v1.2

动网论坛Dvbbs v8.2.0 Build 20090904

酷睿模拟炒股网站管理系统V1.0.0 FOR 动网论坛8.2

GBABOOK BBS v1.2 for Access

GBABOOK BBS v1.2 for SQL Server


    def sprider(self,sprider_name,sprider_count,start_number,
                pager_number,sprider_type,is_show_browse,root_path,
                first_column_name,second_column_name,is_record_db):
        """
        http://www.downcode.com/sort/j_1_2_1.shtml
        :param sprider_name:
        :return:
        """
        self.first_folder_name=sprider_type.upper()
        self.base_path=root_path
        self.first_column_name = first_column_name
        self.second_column_name = second_column_name
        self.sprider_start_count=start_number
        self.is_record_db=is_record_db
        BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
        BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
        BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
        sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
        BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)

        self.second_folder_name = str(sprider_count) + "个" + sprider_name  # 二级目录也是wordTitle
        self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1  # 起始页码用于效率采集
        self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
        BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
        # 浏览器的下载路径
        self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
        BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
        # First/PPT/88个动态PPT模板/动态PPT模板
        self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
        BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")


        if os.path.exists(self.down_path) is True:
            shutil.rmtree(self.down_path)
        if os.path.exists(self.down_path) is False:
            os.makedirs(self.down_path)

        if os.path.exists(self.save_path) is True:
            shutil.rmtree(self.save_path)
        if os.path.exists(self.save_path) is False:
            os.makedirs(self.save_path)
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'gb2312'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
        page_end_number = 1
        page_end_url = ""
        page_end_title = soup.find("a", attrs={"title": '最后页'})
        page_end_url = page_end_title.get("href")
        if page_end_url is None or page_end_url == "":
            page_end_number = 1
        else:
            page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])

        self.page_count = self.merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                else:
                    if int(self.haved_sprider_count) == int(sprider_count):
                        BaseFrame().debug("sprider采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        SpriderTools.builder_word(self.second_folder_name,
                                                  self.word_content_list,
                                                  self.file_path,
                                                  self.word_image_count,
                                                  self.first_folder_name)
                        SpriderTools.copy_file(self.word_content_list,
                                               self.save_path,
                                               self.second_folder_name,
                                               self.file_path)
                        SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
                                                                           self.second_column_name,
                                                                           self.page_count)

                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'gb2312'
                    soup = BeautifulSoup(response.text, "html5lib")
                    element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                BaseFrame().error("sprider()执行过程出现错误:" + str(e))

 

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值