分享86个NET源码,总有一款适合您

24 篇文章 0 订阅

NET源码

分享86个NET源码,总有一款适合您

链接:https://pan.baidu.com/s/1JOY-9pJIM7sUhafxupMaZw?pwd=fs2y 

提取码:fs2y



下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。

 

import os
from time import sleep

import requests
from bs4 import BeautifulSoup
from docx import Document
from docx.shared import Inches

from framework.access.sprider.SpriderAccess import SpriderAccess
from framework.base.BaseFrame import BaseFrame
from framework.pulgin.Tools import Tools
from sprider.business.DownLoad import DownLoad
from sprider.model.SpriderEntity import SpriderEntity
from sprider.business.SpriderTools import SpriderTools
from sprider.business.UserAgent import UserAgent

class ChinaZCode:
    page_count = 1  # 每个栏目开始业务content="text/html; charset=gb2312"
    base_url = "https://down.chinaz.com"  # 采集的网址  https://sc.chinaz.com/tag_ppt/zhongguofeng.html
    save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
    sprider_count = 99 # 采集数量

    word_content_list = []
    folder_name = ""
    first_column_name = "NET"
    sprider_start_count=488 #已经采集完成第136个 debug

    max_pager=16 #每页的数量
    haved_sprider_count = 0  #

    # 如果解压提升密码错误 ,烦请去掉空格。如果还是不行烦请下载WinRAR
    # https: // www.yadinghao.com / file / 393740984E6754
    # D18635BF2DF0749D87.html
    # 此压缩文件采用WinRAR压缩。
    # 此WinRAR是破解版。

    def __init__(self):
        #A5AndroidCoder().sprider("android", "youxi", 895)  #
        pass

    def sprider(self, title_name="Go"):
        """
        采集 https://down.chinaz.com/class/572_5_1.htm
        NET https://down.chinaz.com/class/572_4_1.htm
        :return:
        """
        if title_name == "PHP":
            self.folder_name = "PHP源码"
            self.second_column_name = "572_5"
        elif title_name == "Go":
            self.folder_name = "Go源码"
            self.second_column_name = "606_572"
        elif title_name == "NET":
            self.folder_name = "NET源码"
            self.second_column_name = "572_4"
        first_column_name=title_name

        merchant = int(self.sprider_start_count) // int(self.max_pager) + 1

        second_folder_name = str(self.sprider_count) + "个" + self.folder_name
        self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep +  second_folder_name
        print("开始采集ChinaZCode"+self.folder_name+"...")
        sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
        #print(sprider_url)
        #sprider_url = (self.base_url + "/" +  self.first_column_name + "/" + second_column_name + ".html")
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'UTF-8'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        div_list =soup.find('div', attrs={"class": 'main'})
        div_list=div_list.find_all('div', attrs={"class": 'item'})
        #print(div_list)
        laster_pager_ul = soup.find('ul', attrs={"class": 'el-pager'})
        laster_pager_li = laster_pager_ul.find_all('li', attrs={"class": 'number'})
        laster_pager_url = laster_pager_li[len(laster_pager_li)-1]

        #<a href="zhongguofeng_89.html"><b>89</b></a>

        page_end_number = int(laster_pager_url.string)
        #print(page_end_number)
        self.page_count = merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(div_list,self.page_count,page_end_number)
                else:
                    if self.haved_sprider_count == self.sprider_count:
                        BaseFrame().debug("采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url =self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name,self.page_count )
                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'UTF-8'
                    soup = BeautifulSoup(response.text, "html5lib")
                    div_list = soup.find('div', attrs={"class": 'main'})
                    div_list = div_list.find_all('div', attrs={"class": 'item'})

                    self.sprider_detail(div_list, self.page_count,page_end_number)
                    pass
            except Exception as e:
                print("sprider()执行过程出现错误" + str(e))
                pass
            self.page_count = self.page_count + 1  # 页码增加1

    def sprider_detail(self, element_list, page_count,max_page):
        try:
            element_length = len(element_list)

            self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
            index = self.sprider_start_index

            while index < element_length:
                a=element_list[index]
                if self.haved_sprider_count == self.sprider_count:
                    BaseFrame().debug("采集到达数量采集停止...")
                    break
                index = index + 1
                sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源共"+str(max_page)+"页资源"
                print(sprider_info)

                #title_image_obj = a.find('img', attrs={"class": 'lazy'})
                url_A_obj=a.find('a', attrs={"class": 'name-text'})
                next_url = self.base_url+url_A_obj.get("href")
                coder_title = url_A_obj.get("title")

                response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                response.encoding = 'UTF-8'
                soup = BeautifulSoup(response.text, "html5lib")
                #print(soup)
                down_load_file_div = soup.find('div', attrs={"class": 'download-list'})
                if down_load_file_div is None:
                    BaseFrame().debug("应该是多版本的暂时不下载因此跳过哦....")
                    continue

                down_load_file_url =self.base_url+down_load_file_div.find('a').get("href")

                #image_obj = soup.find('img', attrs={"class": "el-image__inner"})
                #image_src =self.base_url+image_obj.get("src")
                #print(image_src)

                codeEntity = SpriderEntity()  # 下载过的资源不再下载
                codeEntity.sprider_base_url = self.base_url
                codeEntity.create_datetime = SpriderTools.get_current_datetime()
                codeEntity.sprider_url = next_url
                codeEntity.sprider_pic_title = coder_title
                codeEntity.sprider_pic_index = str(index)
                codeEntity.sprider_pager_index = page_count
                codeEntity.sprider_type = "code"
                if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
                    SpriderAccess().save_sprider(codeEntity)
                else:
                    BaseFrame().debug(coder_title + next_url + "数据采集过因此跳过")
                    continue

                if (DownLoad(self.save_path).down_load_file__(down_load_file_url, coder_title, self.folder_name)):
                    #DownLoad(self.save_path).down_cover_image__(image_src, coder_title)  # 资源的 封面
                    sprider_content = [coder_title,
                                       self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"]  # 采集成功的记录
                    self.word_content_list.append(sprider_content)  # 增加到最终的数组
                    self.haved_sprider_count = self.haved_sprider_count + 1
                    BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
            if (int(page_count) == int(max_page)):
                self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
        except Exception as e:
            print("sprider_detail:" + str(e))
            pass

分类同城网 v1.0
Fanmv Blog主题模板-狐族科技主题 v1.0.1.127
25175中学工资管理系统 v2.2
ASP.NET 4.0电子商城 v4.0
在押人员信息管理系统 v2.0
Fanmv CMS v1.0.2.116
25175大学生综合素质管理系统 v2.02
OA管理后台 v1.0
MVC4+EasyUI商城源码 v1.0
玥雅CMS网站信息管理系统 v1.2
Fanmv Blog主题模板:仿糗事百科 v1.0.1.1220
HEasy客户管理系统 ACCESS版 v1.0
启明星员工通讯录Android手机版 v1.0 alpha
AutoWeb建站王 v6.0
诚一办公OA系统 v1.0
良精.Net企业网站管理系统 v5.7
360站优宝,免费建站系统 v3.0
新翔绩效考核系统普通版 v4.5
快站cms v1.1.0
88Song在线音乐网站源码 v1.0
EasyPlat.Net快速开发平台源码 v4.5
谷昆学校网站管理软件 v3.4
教职工基础信息网上填报源码 v1.0 build1024
赣极购物商城网店建站软件系统 v5.1 免费版
初中校园校务管理系统 v20130928
初中校园成绩查询系统 v20130928
初中校园宿舍管理系统 v20130928
乡巴佬㊣家教网 v1.13.0925
PlugNT CMS 内容管理系统 v4.6 编译版
谷秋精品课程软件 v4.5
易辰人才招聘系统 v2.8
Ycbw.Articles简易建站程序 v1.0.0.0
htshop普及版网店系统 v1.0
某精品家教网源码 v23
青乌序Blog(qwxblog) v1.0.3.705
95Shop仿醉品商城 v1.0
一步半YBB企业网站管理系统 v2.7
推出网搜索小偷程序 v30623
TonyShareAccess V2.4正式版 v2.4
TonyShareSQL V2.4正式版 v2.4
JumboECMS v1.3.5 编译版
威流淘宝客返现程序(淘客返利) v4.0
JumbotCms v6.6.0 编译版
迅思科尔企业网站建设管理系统KeerWEB v2.0
飘萍网址导航 v3.1
蓝色博客网站 v2013
军警部队网站管理系统 v2013
建筑工程公司网站 v2013
在线服装商城 v2013
集团公司网站 v2013
通用网站模板 v1.0
智能学校网站管理系统 v0.1
网奇CMS网站管理系统 v5.9 SP1
GBlog好文本博客系统 v2.0
GGCMS网站管理系统 v1.2.1
创想商务B2B网站管理系统 v3.1
PlugNT BBS 论坛系统 v3.6
5kCMS K1 网站内容管理系统 v0.1
有花淘宝客网站程序 v4.0
沙之丘淘宝客 v3.2
美客企业文件管理系统 v1.0
千博企业网站管理系统标准版 v2013 Build0206
超强自定义问卷调查系统 v5.9
创想商务B2B网站橙色模板 v3.0
淘地鼠cms v1.0 正式版
50cms建站系统 v3.0.11 mssql版
刘宝宝文件管理器 v0.3
我不忙-QQ登陆SDK v2.1.0410
我不忙-新浪微博SDK v2.1.0408
BlogEngine.NET(博易) v2.7 源码版
BlogEngine.NET(博易) v2.7
HIWEB学校网站管理系统.NET版  v2.2012.09.25
B2C电子商城源码 v1.1
企业信息资源管理系统 v1.1
企业门户网站源码 v1.1
KstCMS v1.0.0.0
懒人工作通OA (WebOffice支持版) v5.7.2
企业级轻博客网站 v1.1
优聪宝贝早教网站 v4.0
奇文小说连载系统模板
奇文软件下载管理系统 v1.1
启明星留言薄 v1.0
浮动留言板(JQuery 插件+Ajax) v1.0
iNethinkCMS新闻信息管理系统 v1.2 编译版
MCShop微维网上商城系统独立网店系统(非MVC版) v3.06
.NET超炫Flash整站程序 v1.0
至尊国际网资连锁销售程序全功能版 v2.0
电子商务订货系统订货宝 v3.1.0
小泥鳅(Loachs)独立博客源码版 v1.3 正式版
小泥鳅(Loachs)独立博客编译版 v1.3 正式版
cndian淘站群版 v5.0
Hiweb网站快车10周年纪念版 v2.2012.06.29
LearnSite信息技术学习平台 v1.2.0.1 build20120708
月色博客 v1.0
都来订网络外卖订餐系统 v1.8.6
Roark Meeting会议管理系统 v1.0 beta 源码版
仿旅游网站dt85整站源码 v2.0
Zoomla!逐浪CMS v6.0
中诺企业网站CMS v2.0

import os


# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
    dirs = os.listdir(dirPath)  # 查找该层文件夹下所有的文件及文件夹,返回列表
    for currentFile in dirs:  # 遍历列表
        absPath = dirPath + '/' + currentFile
        if os.path.isdir(absPath):  # 如果是目录则递归,继续查找该目录下的文件
            search_file(absPath, fileName)
        elif currentFile == fileName:
            print(absPath)  # 文件存在,则打印该文件的绝对路径
            os.remove(absPath)

 

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。
 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Matlab源码分享是指将自己编写的Matlab代码分享给其他人使用。这样做有以下几个好处。 首先,通过分享源码,可以帮助其他人学习和理解Matlab编程。编写代码是学习编程语言的最好方式之一。通过查看他人的代码,可以学习到不同的编程技巧、算法应用等。分享自己的源码可以帮助其他人更好地学习和应用Matlab。 其次,源码分享可以促进协作和交流。Matlab是一个非常强大和广泛应用的编程语言,通过分享源码,可以与其他Matlab用户建立联系,共同讨论和解决问题。这么做能够加快问题的解决速度,提高工作效率。 此外,源码分享还可以帮助其他人解决实际问题。很多时候,我们可能会遇到一些具体的问题,而其他人已经写过相应的代码。通过分享源码,可以直接获取解决问题的方法。这样就不仅节省了自己编写代码的时间,还能够直接应用他人的解决方案。 最后,源码分享也是一种分享知识和经验的方式。通过将自己的代码分享给其他人,可以将自己的知识和经验传递给更多的人。这不仅能够提高自己的知名度和影响力,还可以为其他人提供帮助和指导。 综上所述,Matlab源码分享是一种有益的行为。它可以帮助他人学习和理解Matlab编程,促进协作和交流,解决实际问题,同时也是一种分享知识和经验的方式。因此,我鼓励大家积极参与Matlab源码分享活动。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亚丁号

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值