WEB应用收集

WEB应用的收集是建立在IP、域名以及端口所收集到的数据之上的。

每一个IP及域名对外开放的端口都可能搭建了WEB服务。

除此之外,还有以下方式扩大针对WEB应用的收集:

1、目录及文件扫描


针对开放WEB服务的端口进行常见的敏感目录以及文件扫描,这些对以后的突破都可能产生至关重要的作用。

这些敏感的目录猪猪侠已经写过相关工具,工具介绍以及设计思想可以在社区中看到:动态多线程敏感信息泄露检测工具--weakfilescan.

2、网络搜索


可以在github上通过一些关键字搜索相关企业的代码,如果该企业在github上有放公开的代码,那么可以搜索到对其代码进行分析,有的甚至会存在一些敏感账号的用户名密码,例如邮箱,svn,ftp等。

可以看社区的讨论:如何从github上找漏洞

还可以针对一些页面的历史信息信息收集:

如果一些页面已经被修改,Google与百度之前爬过该页面,那么可以通过Google与百度的缓存查看页面原来的样子。

同时时光倒流机这个网站上会保存一个网站的很多历史页面,如果有记录的话,可以看到一个网站之前采用的WEB应用。