分享77个NET源码,总有一款适合您

24 篇文章 0 订阅

NET源码

分享77个NET源码,总有一款适合您

NET源码下载链接:https://pan.baidu.com/s/1vhXwExVAye5YrB77Vxif8Q?pwd=zktx 

提取码:zktx


下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。

import os
from time import sleep

import requests
from bs4 import BeautifulSoup
from docx import Document
from docx.shared import Inches

from framework.access.sprider.SpriderAccess import SpriderAccess
from framework.base.BaseFrame import BaseFrame
from framework.pulgin.Tools import Tools
from sprider.business.DownLoad import DownLoad
from sprider.model.SpriderEntity import SpriderEntity
from sprider.business.SpriderTools import SpriderTools
from sprider.business.UserAgent import UserAgent

class ChinaZCode:
    page_count = 1  # 每个栏目开始业务content="text/html; charset=gb2312"
    base_url = "https://down.chinaz.com"  # 采集的网址  https://sc.chinaz.com/tag_ppt/zhongguofeng.html
    save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
    sprider_count = 77 # 采集数量

    word_content_list = []
    folder_name = ""
    first_column_name = "NET"
    sprider_start_count=66 #已经采集完成第136个 debug

    max_pager=16 #每页的数量
    haved_sprider_count = 0  #

    # 如果解压提升密码错误 ,烦请去掉空格。如果还是不行烦请下载WinRAR
    # https: // www.yadinghao.com / file / 393740984E6754
    # D18635BF2DF0749D87.html
    # 此压缩文件采用WinRAR压缩。
    # 此WinRAR是破解版。

    def __init__(self):
        #A5AndroidCoder().sprider("android", "youxi", 895)  #
        pass

    def sprider(self, title_name="Go"):
        """
        采集 https://down.chinaz.com/class/572_5_1.htm
        NET https://down.chinaz.com/class/572_4_1.htm
        :return:
        """
        if title_name == "PHP":
            self.folder_name = "PHP源码"
            self.second_column_name = "572_5"
        elif title_name == "Go":
            self.folder_name = "Go源码"
            self.second_column_name = "606_572"
        elif title_name == "NET":
            self.folder_name = "NET源码"
            self.second_column_name = "572_4"
        first_column_name=title_name

        merchant = int(self.sprider_start_count) // int(self.max_pager) + 1

        second_folder_name = str(self.sprider_count) + "个" + self.folder_name
        self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep +  second_folder_name
        print("开始采集ChinaZCode"+self.folder_name+"...")
        sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
        #print(sprider_url)
        #sprider_url = (self.base_url + "/" +  self.first_column_name + "/" + second_column_name + ".html")
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'UTF-8'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        div_list =soup.find('div', attrs={"class": 'main'})
        div_list=div_list.find_all('div', attrs={"class": 'item'})
        #print(div_list)
        laster_pager_ul = soup.find('ul', attrs={"class": 'el-pager'})
        laster_pager_li = laster_pager_ul.find_all('li', attrs={"class": 'number'})
        laster_pager_url = laster_pager_li[len(laster_pager_li)-1]

        #<a href="zhongguofeng_89.html"><b>89</b></a>

        page_end_number = int(laster_pager_url.string)
        #print(page_end_number)
        self.page_count = merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(div_list,self.page_count,page_end_number)
                else:
                    if self.haved_sprider_count == self.sprider_count:
                        BaseFrame().debug("采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url =self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name,self.page_count )
                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'UTF-8'
                    soup = BeautifulSoup(response.text, "html5lib")
                    div_list = soup.find('div', attrs={"class": 'main'})
                    div_list = div_list.find_all('div', attrs={"class": 'item'})

                    self.sprider_detail(div_list, self.page_count,page_end_number)
                    pass
            except Exception as e:
                print("sprider()执行过程出现错误" + str(e))
                pass
            self.page_count = self.page_count + 1  # 页码增加1

    def sprider_detail(self, element_list, page_count,max_page):
        try:
            element_length = len(element_list)

            self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
            index = self.sprider_start_index

            while index < element_length:
                a=element_list[index]
                if self.haved_sprider_count == self.sprider_count:
                    BaseFrame().debug("采集到达数量采集停止...")
                    break
                index = index + 1
                sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源共"+str(max_page)+"页资源"
                print(sprider_info)

                #title_image_obj = a.find('img', attrs={"class": 'lazy'})
                url_A_obj=a.find('a', attrs={"class": 'name-text'})
                next_url = self.base_url+url_A_obj.get("href")
                coder_title = url_A_obj.get("title")

                response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                response.encoding = 'UTF-8'
                soup = BeautifulSoup(response.text, "html5lib")
                #print(soup)
                down_load_file_div = soup.find('div', attrs={"class": 'download-list'})
                if down_load_file_div is None:
                    BaseFrame().debug("应该是多版本的暂时不下载因此跳过哦....")
                    continue

                down_load_file_url =self.base_url+down_load_file_div.find('a').get("href")

                #image_obj = soup.find('img', attrs={"class": "el-image__inner"})
                #image_src =self.base_url+image_obj.get("src")
                #print(image_src)

                codeEntity = SpriderEntity()  # 下载过的资源不再下载
                codeEntity.sprider_base_url = self.base_url
                codeEntity.create_datetime = SpriderTools.get_current_datetime()
                codeEntity.sprider_url = next_url
                codeEntity.sprider_pic_title = coder_title
                codeEntity.sprider_pic_index = str(index)
                codeEntity.sprider_pager_index = page_count
                codeEntity.sprider_type = "code"
                if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
                    SpriderAccess().save_sprider(codeEntity)
                else:
                    BaseFrame().debug(coder_title + next_url + "数据采集过因此跳过")
                    continue

                if (DownLoad(self.save_path).down_load_file__(down_load_file_url, coder_title, self.folder_name)):
                    #DownLoad(self.save_path).down_cover_image__(image_src, coder_title)  # 资源的 封面
                    sprider_content = [coder_title,
                                       self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"]  # 采集成功的记录
                    self.word_content_list.append(sprider_content)  # 增加到最终的数组
                    self.haved_sprider_count = self.haved_sprider_count + 1
                    BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
            if (int(page_count) == int(max_page)):
                self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
        except Exception as e:
            print("sprider_detail:" + str(e))
            pass

 

web表单智能填充器 v2020
学校微机室自动管理系统 v1.3
动易BizIdea企业电子商务管理系统 v6.2.0
优索教务管理系统 v9.3.2
易点内容管理系统 DianCMS v7.1.0 SQL版
易点内容管理系统 DianCMS v7.1.0 ACC版
E桶金源码交易系统 v1.5
JumbotCms v7.3.1 源码版
自适应企业网站模板源码 v2.0
职业考证在线学习平台 v1.0 共享版
KesionICMS智能建站系统 v8.2020.12.30
辖区核酸检测管理系统 v1.0.0
dboxShare开源企业网盘系统 v2.0.0.2012
高博学校人事工资管理系统 v20201028
微厦企业商学院学习平台 v2020 社区版
高博学校网站内容管理系统 v20201015
DreamerShop梦想家网店系统 v6.0
启明星个人小博客blog v2.0
启明星视频管理系统video v33.0
netnr-blog博客系统 v2.x
启明星员工工资自助查询系统 v1.0
逐浪CMS v8.1.5
工作易人才系统 v200715
启明星工程项目投标系统bid v26.0
SiteServer CMS v6.14 正式版
优索学生成绩管理系统 v9.2.4
优索绩效考核系统 v7.3.0
微点慧采电子招标采购平台 v1.0
AngelShop外贸商城网站管理系统 v1.0
LebiShop多语言网店系统 v7.0.06
ASP.NET MVC通用角色权限管理系统源码 v2.0
企业信使 v2.0
新乙王企业网站内容管理cms系统源码 v4.2
启明星工作日志Worklog系统 v31.0
魔方CRM客户管理系统 v2
QCRM客户关系管理系统 v1.1.4
Util6 MIS(优六综合管理系统) v2.7
汽车网程序E-AUTO X3.0 v2019.9.30
财务公司网站模板(HDHCMS) v1.0
GOODNET中英文企业网站源码 v2.0
物流公司网站源码 v2.0
进销存管理系统 v1.0.0
售卡卡盟商城 v1.0.0
微商客户分级代理发货系统 v1.0.0
新翔驾校综合管理系统 v1.0
启明星采购系统 purchase(含手机版) v30.0
近乎(spacebuilder) v5.3.1
LdCms.NetCore网站内容信息管理系统 v1.0.1
PageAdmin学校网站管理系统 v4.0.07
推网企业网站系统 v1.5
装饰设计网站源码(包括手机版) v2.0
超强自定义问卷调查系统 v2019
KesionIMALL在线商城系统 v6.0
KesionICMS智能建站系统 v6.0
小书童开源免费二维码批量生成工具 v1.0
Oauth2统一登录平台 v1.2
企站帮微商城系统Access版 v1.4
工资查查移动工资条 v1.0.1
Zoomla!逐浪CMS2 x3.9.6
KesionIEXAM在线考试系统 v6.0.181224
档案信息管理系统 v2.0
pageadmin企业网站管理系统 v4.0 build181228
启明星员工请假系统appform v25.0
Tmmi Web Api接口自动测试软件 v0.3.0
公共财产管理系统 v1.0
试客源码试客系统试用程序 v3.6
启明星员工档案管理系统profile v23.0
乡巴佬淘宝客 v2.18.0915
营销型企业网站源码(包含手机版) v2.0
WebBoxCMS企业网站系统 v2.3.17  UTF8
乘风asp.net探针 v1.3
中搜企业建站系统 v1.0
kkWish订单管理系统 v1.0
点触小程序平台源码.NETCORE版本 v1.19
懒人工作通OA SqlServer版 v6.35
乐彼多语言网上商城系统(LebiShop) v5.1.17 .NET开源版
新翔通用人事管理系统 v1.0

import os


# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
    dirs = os.listdir(dirPath)  # 查找该层文件夹下所有的文件及文件夹,返回列表
    for currentFile in dirs:  # 遍历列表
        absPath = dirPath + '/' + currentFile
        if os.path.isdir(absPath):  # 如果是目录则递归,继续查找该目录下的文件
            search_file(absPath, fileName)
        elif currentFile == fileName:
            print(absPath)  # 文件存在,则打印该文件的绝对路径
            os.remove(absPath)

 

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。
 

2.源码特点: 一、网站后台布局:前端使用js jqury Html5 bootstrap布局 二、本系统后台采用ASP.NET MVC框架开发底层使用ADO.NET页面使用bootstrap js jquery razor引擎开发,前台使用标准web布局html+javsscript+css符合w3c标准。 3.功能介绍: 网站后台:主要包括登陆、用户管理、图片管理、企业文化管理、新闻中心管理、集团成员管理、 企业公民管理、加入企业公司管理、分别对应前台功能首页企业文化、新闻中心、集团成员、 企业公民、加入国享购、联系我们,操作增删改查 4.菜单功能 一、用户管理:主要可以对用户新增改查 二、图片管理:主要对首页图片,滚动图片,轮播图最新新闻等管理操作 三、企业文化管理:主要对前台企业文化中,集团概况、企业理念、领导团队、员工风采管理操作 四、新闻中心管理:主要对公司动态新闻进行管理操作。 五、集团成员管理、主要对集团成员中互联网、投资、旅游、贸易进行管理增删改查。 六、企业公民管理、主要对前台企业公民菜单进行管理操作 七、加入企业公司管理、主要对发布公司招聘信息和投递简历进行管理 5.注意事项: 1.网站使用Visual Studio2013 使用.net framework 4.5环境开发 2.管理员登陆名密码都设置为:51aspx 3.数据库在DB_51aspx文件夹下,数据配置在网站Web.config下配置, 数据库连接方式sa登录方式
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值