分享60个ASP留言日记源码,总有一款适合您

文章分享了60个不同的ASP留言日记源码供下载,并提供了一个Python采集代码的下载链接。这些源码包括各种类型的留言本和日记系统,如EtpFlash留言本、翼人Mac风格留言板等。此外,文章还展示了如何使用Python进行网络数据采集,涉及BeautifulSoup库的使用。
摘要由CSDN通过智能技术生成

分享60个ASP留言日记源码,总有一款适合您
 

60个ASP留言日记源码下载链接:https://pan.baidu.com/s/1hoQ_P_ZGyvyCpgJFEp6Nmw 
提取码:6ov4

Python采集代码下载链接:采集代码.zip - 蓝奏云

我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见

 

import os
import shutil

import requests
from bs4 import BeautifulSoup

from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent


class CNSourceCoder:
    base_url = "http://www.downcode.com"

    max_pager = 10  # 每页的数量 影响再次采集的起始位置.
    word_image_count = 5  # word插入图片数量 同时也是明细采集图片和描述的数量

    page_end_number = 0
    word_content_list = []
    haved_sprider_count = 0  # 已经采集的数量
    sprider_detail_index = 0  # 明细方法采集的数量 累加

Etp Flash 留言本 v1.21 Build 040101

withwolf guestbook

e人超小留言本 v1.0

WindStep留言簿简朴版 v1.2

清风心情日记

网民社区多用户日记本与留言本

轻尘火多彩留言本 v1.0

zz809.com留言本

轻尘火多彩留言本v1.0

灵感创作室-心情日记(多用户)

三峡在线多用户留言簿

秋之恒日记本 v1.0

心情吧日记本多用户版V2.0美化女生版

红意网留言簿2.0版

人间四月天留言系统 v4.0

蓝色伊人象素日记本(多用户版)

垃圾鼠心情日记

梦幻留言系统(M-Book) V2.0

梅立的DLOG(网络日志本)

小虾留言本 v1.0

企业在线留言板 v1.0

清新“爱の记忆”多用户留言本

人间四月天留言簿 v3.5(因扎吉新春贺岁版)

冬日阳光小型留言本 v2.0

翼人Mac风格留言板Wingerbook v2.0

bluemm多用户留言本(清新绿色版)

GBook365留言本XP风格 V1.20(多用户版)

GBook365留言本XP风格 V1.20(单用户版)

冬日阳光小型留言本

流星网盟留言本V版

心情吧日记本美化版(仿163SM)V2.2

农安信息港留言系统

GBook365 V1.1 多用户正式版

翱翔网络留言本新年特别版 v1.0

POET涂鸦留言本 V1.0

中牟影音多用户留言版系统

GBook365 V1.0 正式版

交流时空留言本

E路电脑专业论坛留言程序

毛虫留言本 v4.1

DlogPlus(DLOG修改版)

中牟影音多用户留言版系统 v1.0

FJ126.NET日记V1.0

点伍工作室留言本

新漫网络留言本

xiaobbook 留言本

今生个性留言本

新漫网络留言本 V1.0 测试版

北方之窗多用户留言本 v1.0

浅蓝电话本

第一FALSH留言板

JIMMY中文站留言簿 v1.08

大卫杜夫网虫日记本美化版 v1.0 BETA

ZERO设计留言本

赛维网络修改的Dlog日志系统

DLog 呜喂圣诞美化版

淮南设计留言簿 XP Bate 1.0

梦幻留言系统v1.1

旋木留言本 V1.0

柏图留言本 BTB 1.2


    def sprider(self,sprider_name,sprider_count,start_number,
                pager_number,sprider_type,is_show_browse,root_path,
                first_column_name,second_column_name,is_record_db):
        """
        http://www.downcode.com/sort/j_1_2_1.shtml
        :param sprider_name:
        :return:
        """
        self.first_folder_name=sprider_type.upper()
        self.base_path=root_path
        self.first_column_name = first_column_name
        self.second_column_name = second_column_name
        self.sprider_start_count=start_number
        self.is_record_db=is_record_db
        BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
        BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
        BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
        sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
        BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)

        self.second_folder_name = str(sprider_count) + "个" + sprider_name  # 二级目录也是wordTitle
        self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1  # 起始页码用于效率采集
        self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
        BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
        # 浏览器的下载路径
        self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
        BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
        # First/PPT/88个动态PPT模板/动态PPT模板
        self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
        BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")


        if os.path.exists(self.down_path) is True:
            shutil.rmtree(self.down_path)
        if os.path.exists(self.down_path) is False:
            os.makedirs(self.down_path)

        if os.path.exists(self.save_path) is True:
            shutil.rmtree(self.save_path)
        if os.path.exists(self.save_path) is False:
            os.makedirs(self.save_path)
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'gb2312'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
        page_end_number = 1
        page_end_url = ""
        page_end_title = soup.find("a", attrs={"title": '最后页'})
        page_end_url = page_end_title.get("href")
        if page_end_url is None or page_end_url == "":
            page_end_number = 1
        else:
            page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])

        self.page_count = self.merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                else:
                    if int(self.haved_sprider_count) == int(sprider_count):
                        BaseFrame().debug("sprider采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        SpriderTools.builder_word(self.second_folder_name,
                                                  self.word_content_list,
                                                  self.file_path,
                                                  self.word_image_count,
                                                  self.first_folder_name)
                        SpriderTools.copy_file(self.word_content_list,
                                               self.save_path,
                                               self.second_folder_name,
                                               self.file_path)
                        SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
                                                                           self.second_column_name,
                                                                           self.page_count)

                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'gb2312'
                    soup = BeautifulSoup(response.text, "html5lib")
                    element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                BaseFrame().error("sprider()执行过程出现错误:" + str(e))

最后送大家一首诗:

 

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值