第二章侦察
总结
信息收集是十分重要的,就像去抢银行一样,没有计划的歹徒可能心血来潮就去抢了,但是落网往往是十分迅速的,有计划有组织的歹徒会提前踩点,落实银行的信息,比方哪天钱多,哪天安保力量少一点,哪天是那个特别怕死的员工上班等等等等。简单说信息收集就是通过一些列方法,获取可以被攻击的ip表。还有就是要善于利用搜索引擎。
HTTrack
HTTrack是一个软件,windos直接在(http://www.httrack.com)下载,linux直接apt-get install httrack
就可以下了,这个东西主要是拿来拷贝网站的,复制的内容是原始网站所有的网页,来凝结,图片和代码,不过都还会储存在你的电脑,这样就是要注意大小,不然太大了顶不住。下载完只会会被放在/root/websites/<项目名>,然后用火狐打开/root/websites/<项目名>。然后浏览网站,注意细节,和记录信息,地理位置,电话号码,电子邮箱,上班事件,商业关系,员工姓名,社会化媒体的联系,还有特别关注公告和新闻这也的信息,招聘信息也是需要注意的,如果说要招会xx技术或者熟悉xx防火墙的,那不是大概率此地无银三百两,总之如果要想完成一次成功的渗透,前期的工作是十分重要的。
Goole指令
google 指令一般有三部分
指令集和半角冒号 还有内容
不同的不同的指令集可以合在一起用,比如 site:zcmu.edu.cn filetype:doc 找来自zcmu.edu.cn 的doc文档
基本使用
site:‘url’ ‘xxx’
可以找特定的地址的应用的内容,即返回来自url中关键字有xxx的内容
比如我要找zcmu.edu.cn 关于tianqibucuo的信息就可以用如下格式在google直接用
site:zcmu.edu.cn tianqibucuo
intitle:‘xxx’
搜寻网页标题有xxx关键字任意一个x的网页
allintitle:‘xxx’
网页必需包含‘xxx’才行
inurl:‘xxx’
搜索网站url带有xxx的,比如 inurl:login inurl:?id=1
cache:‘url’
搜索网页快照地址为url的
filetypye:‘xxx’
搜索扩展名返回类型为xxx的,比如pdf,doc,xlsx,ppt,pptx,txt等等等等
The Haverter:挖掘并利用邮箱地址
大概知道有这么这个工具是拿来爬邮箱的就行了
基本用法 -d 地址 -b 搜索引擎
theHarvester -d zcmu.edu.cn -b google
theHarvester -d qq.com -b baidu
whois
获取目标的ip地址,DNS主机名或地址电话号码之类的备案信息
用法
whois url
用这个要注意的回显的信息就是Referral URL
Netcraft
http://news.netcraft.com
大概是想fofa一样的信息收集的网站
Firce和其他从DNS中提取信息的工具
DNS是知晓网络中每个域名对应的ip的,所以掌握如果能掌握DNS的权限是很幸运的事情,这意味着,你已经能够获得这个网络中所有的目标都在你眼前了,这已经是信息收集意义的绝大部分了。NS lookup和Dig是检查DNS服务器的工具
用法 nslookup domain dig domain
从电子邮件服务器中提取信息
知道对面电子邮件服务器的ip是很有意义的,注意服务器的相关基础信息,版本,ip,品牌。
社会工程
发挥脑洞时间
筛选信息寻找可攻击的目标
收集信息,列出ip表,也许我们会从这些ip中发现更多信息和可以被攻击的ip这个是要自己去挖掘,注意整理