信息收集总结

目录

1.信息收集内容回顾

域名信息收集

ip信息收集

端口服务信息

CMS指纹识别

CDN指纹识别

WAF指纹识别

搜索引擎收集信息

网络空间搜索引擎

目录扫描

Git信息收集

2.kali信息收集工具概览

存活主机识别:

DNS分析

 IDS/IPS识别:

 wafw00f:WAF识别

 SMB分析:Server Message Block(网络文件系统协议)

SNMP分析

SSL分析

 综合的信息收集工具

3.其他信息收集方式

旁站或C段:

通过APK收集信息

社会工程学

内网信息收集

补充


1.信息收集内容回顾

域名信息收集

域名是什么,域名分类,域名联系人信息,子域名信息,域名DNS信息

ip信息收集

如何根据域名获得ip,如何获得CDN背后的真实ip

端口服务信息

扫描思路,代码实现,端口服务信息,扫描工具Nmap,其他工具

CMS指纹识别

什么是指纹识别,什么是CMS,CMS指纹识别的思路,CMS指纹识别的工具

CDN指纹识别

cdn指纹识别思路,cdn指纹识别工具

WAF指纹识别

什么是WAF,常见WAF产商,WAF的识别思路,怎么触发WAF,WAF的识别工具

搜索引擎收集信息

GoogleHacking ,运算符,高级语法,语法数据库,工具

语法:最详细的GOOGLE搜索指令大全 - 知乎 (zhihu.com)

网络空间搜索引擎

什么是网络空间,网络空间搜索引擎,Shodan,其他的网络空间搜索引擎,对比,工具

shodan语法:shodan语法 - 简书 (jianshu.com)

目录扫描

什么是目录扫描,常见的敏感目录和文件,文件扫描思路,文件扫描的字典,工具

Git信息收集

什么是版本控制系统,为什么git会导致信息泄露,Github搜索技巧,Git信息泄露利用方式

2.kali信息收集工具概览

 

软件清单:Kali Tools | Kali Linux Tools

中文界面:Jack-Liang/kalitools: Kali Linux工具清单 (github.com)

存活主机识别:

arping:将ARP和/或ICMP请求发送到指定的主机

fping:fping可以在命令行中指定要ping的主机数量范围

hping3:TCP/IP数据包组装/分析工具;可以发起flood攻击

masscan:自称最快的互联网端口扫描器

thcping6:atk6-thcping6;可以攻击IPV6和ICMP6固有的协议弱点

DNS分析

dnsenum:多线程perl脚本枚举域的DNS信息并发现非连续的IP段工具

dnsrecon:DNS枚举和扫描

dnsrecon -d www.xxx.com

fierce:DNS扫描程序

fierce --domain www.xxx.com

 IDS/IPS识别:

IDS:入侵检测系统

IPS:入侵防御系统

lbd:load balance detector( CND负载均衡识别)

lbd www.xxx.cn

 wafw00f:WAF识别

wafw00f www.xxx.com

 SMB分析:Server Message Block(网络文件系统协议)

enum4linux:可以收集Windows系统大量信息,如用户名列表,主机列表,共享列表,密码策略信息,工作组和成员信息,主机信息,打印机信息等等

enum4linux 1.1.1.1

nbtscan:扫描开放的NETBIOS名称服务器

nbtscan -r 1.1.1.0/24

 smbmap

SNMP分析

简单网络管理协议(大部分设备都支持SNMP协议),默认端口为161

onesixtyone

通过SNMP服务,渗透测试人员可以获取大量的设备和系统信息

onesixtyone 1.1.1.1

snmp-check

snmp-check 1.1.1.1 -p 161

SSL分析

 ssldump:SSL/TLS网络协议分析工具

sslh:一款采用C语言编写的开源端口复用软件;SSLH允许我们在linux系统上的同一端口运行多个程序/服务

sslscan:评估远程web服务的SSL/TLS的安全性

sslscan www.xxx.com

sslyze :可以扫描出SSL中一些经典的配置错误

sslyze www.xxx.com

 综合的信息收集工具

dmitry:子域名,电子邮件地址,正常运行时间信息,tcp端口扫描,whois

ike-scan:VPN服务嗅探工具

legion:使用NMAP,whataweb,nikto,Vulners,Hydra,SMBenum,dirbuster,sslyzer,webslayer等进行自动侦察和扫描

3.其他信息收集方式

旁站或C段:

ip段网站查询 旁站查询 C段网站查询 查旁站 (chapangzhan.com)

同IP网站查询,C段查询,IP反查域名,在线C段,旁站工具 - WebScan

通过APK收集信息

apktool反编译

正则表达式匹配 

grep -ohr -E "https?://[a-zA-Z0-9\.\/_&=@$%?~#-]*" /Hello/com.android/ |sort|uniq>> test.txt

社会工程学

 

 

内网信息收集

需要掌握Windows或Linux命令,后面回学

补充

kali-undercover

将kali伪装成win10的样子

伪装和还原是同一个命令

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,我可以为您讲解Flume采集指定目录下的日志信息到HDFS系统的实验过程及总结。 实验过程: 1. 安装Hadoop和Flume 在进行实验前,需要先安装好Hadoop和Flume。可以从官方网站下载最新版本的Hadoop和Flume,并按照官方文档进行安装。 2. 编写Flume配置文件 在安装好Flume后,需要编写配置文件来指定日志信息的来源和目标位置。以下是一个示例配置文件: ``` # Name the components on this agent agent.sources = source1 agent.sinks = sink1 agent.channels = channel1 # Describe/configure the source agent.sources.source1.type = spooldir agent.sources.source1.spoolDir = /path/to/log/directory # Describe the sink agent.sinks.sink1.type = hdfs agent.sinks.sink1.hdfs.path = hdfs://localhost:9000/flume/logs agent.sinks.sink1.hdfs.filePrefix = %{hostname} agent.sinks.sink1.hdfs.fileSuffix = .log agent.sinks.sink1.hdfs.rollInterval = 60 agent.sinks.sink1.hdfs.rollSize = 0 agent.sinks.sink1.hdfs.rollCount = 0 # Use a channel which buffers events in memory agent.channels.channel1.type = memory agent.channels.channel1.capacity = 1000 agent.channels.channel1.transactionCapacity = 100 # Bind the source and sink to the channel agent.sources.source1.channels = channel1 agent.sinks.sink1.channel = channel1 ``` 在以上配置中,我们使用`spooldir`作为Flume的source,它可以监控指定目录下的文件,当文件发生变化时,Flume会自动将文件内容读取到内存中,并发送到指定的sink。在此示例中,我们使用HDFS作为sink,将读取到的日志信息写入到指定的HDFS路径中。其中,`%{hostname}`会自动被替换为当前主机的名称,`.log`为文件的后缀名。 3. 启动Flume agent 在完成配置文件编写后,可以使用以下命令启动Flume agent: ``` $ flume-ng agent --conf-file /path/to/flume.conf --name agent -Dflume.root.logger=INFO,console ``` 其中,`/path/to/flume.conf`为配置文件的路径,`agent`为agent的名称,`-Dflume.root.logger=INFO,console`用于指定日志输出的级别和位置。 4. 查看HDFS中的日志信息 在启动Flume agent后,它会自动将指定目录下的日志信息写入到HDFS中。可以使用以下命令查看HDFS中的日志信息: ``` $ hdfs dfs -cat /flume/logs/* ``` 以上命令会列出HDFS中所有以`.log`为后缀名的文件,并将文件内容输出到终端。 总结: 通过以上实验,我们可以看到Flume的强大功能,它能够自动监控指定目录下的文件,将文件内容写入到指定的sink中。这使得我们能够轻松地将日志信息等数据写入到HDFS中,并进行后续的数据分析处理。同时,Flume的配置文件也十分灵活,可以根据实际需求进行修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

jjj34

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值