比较两个路径下DLL版本并出力CSV

'''
Created on 2015年8月26日


@author: Administrator
'''
import os
import sys
import zipfile
import fnmatch
import datetime
import time
import csv


class Util(object):


   #read information from the txt file
   def readPathInfo(self,path):
       list=[]
       pathinfo=os.path.normpath(path)
       file_handle=open(pathinfo,"r")
       try:
           for path in file_handle:
               list.append(path.strip())
       except IOError:
           print("READ ERROR")
           sys.exit()
       finally:
           file_handle.close()
       return list
   
   #extract the zipmodule in the extraction_dir
   def zipExtractAll(self,zipmodule,extraction_dir):
       zipfiles=zipfile.ZipFile(zipmodule,"r")
       zipfiles.extractall(extraction_dir)
   
   #gain the modify time of the file
   #the size of the file
   def fileModifyTimeSize(self,filepath):
       list=[]
       stat=os.stat(filepath)
       last_modified = stat.st_mtime
       timeArray=time.localtime(last_modified)
       otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray)
       
       size=os.path.getsize(filepath)
       list.append(otherStyleTime)
       list.append(size)
       return list
       
   #fnmatch *.zip
   #fnmatch *.dll
   def iterFindFiles(self,path, extension):
        for root, dirs, files in os.walk(path):
            for filename in fnmatch.filter(files, extension):
                yield os.path.join(root, filename)
   
   #gain the modules and properties
   def acquireModulesInfo(self,path,extension):
       dictInfo={}
       for filename in Util.iterFindFiles(self,path,extension):
           list=Util.fileModifyTimeSize(self,filename)
           dictInfo[filename]=list
       return dictInfo
  
   #compare the timestamp and output the csv file
   def compTimeSizeCsv(self,dictoriginal,dictcompare,csvfile):
       ##open the csv
       csvoutput=open(csvfile, 'w')
       fieldnames=['originalmodule','originaltimestamp','originalsize',
                       'comparemodule','comparetimestamp','comparesize','result']
       writer=csv.DictWriter(csvoutput, fieldnames=fieldnames)
       writer.writeheader()
       
       #prepare data for compare
       dictbasedir={}
       for key in dictcompare.keys():
           basename=os.path.basename(key)
           dirname=os.path.dirname(key)
           dictbasedir[basename]=dirname
       
       for count in range(0,len(dictoriginal.keys())):
           keyvalue=dictoriginal.popitem()
           
           if os.path.basename(keyvalue[0]) in dictbasedir.keys():
               keycompare=os.path.join(dictbasedir[os.path.basename(keyvalue[0])],os.path.basename(keyvalue[0]))
               listcompare=dictcompare.pop(keycompare)
               listoriginal=keyvalue[1]
               if listoriginal[0]==listcompare[0] and listoriginal[1]==listcompare[1]:
                   writer.writerow({'originalmodule':keyvalue[0],'originaltimestamp':listoriginal[0],'originalsize':listoriginal[1],
                       'comparemodule':keycompare,'comparetimestamp':listcompare[0],'comparesize':listcompare[1],'result':"OK"})
               else:
                   writer.writerow({'originalmodule':keyvalue[0],'originaltimestamp':listoriginal[0],'originalsize':listoriginal[1],
                       'comparemodule':keycompare,'comparetimestamp':listcompare[0],'comparesize':listcompare[1],'result':"NG"})  
       #dictoriginal
       for key in dictoriginal.keys():
           writer.writerow({'originalmodule':key,'originaltimestamp':dictoriginal[key][0],'originalsize':dictoriginal[key][1],
                       'comparemodule':"",'comparetimestamp':"",'comparesize':"",'result':""})
       #dictcompare
       for key in dictcompare.keys():
           writer.writerow({'originalmodule':"",'originaltimestamp':"",'originalsize':"",
                       'comparemodule':key,'comparetimestamp':dictcompare[key][0],'comparesize':dictcompare[key][1],'result':""})
       return True


#Test correctness of the code
if __name__=="__main__":
    util=Util()
    listpath=util.readPathInfo("C:\\path.txt")
    dictlist=[]
    for path in listpath:
        if os.path.isdir(path):         
            for filename in util.iterFindFiles(path, "*.zip"):
                util.zipExtractAll(filename,path)
            
            dictorigcomp=util.acquireModulesInfo(path,"*.dll")
            dictlist.append(dictorigcomp)
        else:
            print("the input information is not path")
    try:
        util.compTimeSizeCsv(dictlist[0], dictlist[1], "C:\\csvreport.csv")
        print("Successful")
    except Exception:
        print("Unsuccessful")
        
        
        
以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值