提取LSA密码lsadump

提取LSA密码lsadump

LSA是Windows系统本地安全认证的模块。它会存储用户登录其他系统和服务用户名和密码,如VPN网络连接、ADSL网络连接、FTP服务、Web服务。通过搜集这些信息,便于对服务器进行渗透测试。

Kali Linux提供lasdump工具。利用Kali Linux系统U盘启动Windows电脑,然后将Windows系统分区挂载Kali下,就可以使用该工具LSA密码信息。提取的信息中,均是明文信息,用户可以直接利用。

转载于:https://my.oschina.net/u/1585857/blog/804422

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LSA(Latent Semantic Analysis)是一种基于奇异值分解(Singular Value Decomposition, SVD)的文本关键词提取算法。下面是使用Python实现LSA关键词提取算法的具体步骤: 1. 导入所需的库 ```python import numpy as np from sklearn.feature_extraction.text import TfidfVectorizer from sklearn.decomposition import TruncatedSVD ``` 2. 准备文本数据,将文本转化为TF-IDF向量 ```python # 假设我们有一些文本数据,存放在一个列表中 data = ["this is the first document", "this is the second document", "and this is the third one", "is this the first document"] # 初始化TfidfVectorizer,并将文本转化为TF-IDF向量 tfidf = TfidfVectorizer().fit_transform(data) ``` 3. 对TF-IDF向量进行SVD降维 ```python # 初始化TruncatedSVD,将TF-IDF向量降维为2维 svd = TruncatedSVD(n_components=2) lsa = svd.fit_transform(tfidf) ``` 4. 计算每个文本的关键词,即SVD后的向量中最大值对应的词语 ```python # 获取所有词语 terms = TfidfVectorizer().fit(data).get_feature_names() # 对每个文本的关键词进行提取 for i, comp in enumerate(svd.components_): terms_comp = zip(terms, comp) sorted_terms = sorted(terms_comp, key=lambda x: x[1], reverse=True)[:5] print("Document ", i) for t in sorted_terms: print(t[0]) ``` 以上就是LSA关键词提取算法的Python实现步骤。不过需要注意的是,LSA算法并不是最优的文本关键词提取算法,还有其他更先进的算法,如TextRank、BERT等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值