Web安全渗透测试之信息搜集篇(上)

原创
安全 应用安全
当我们进行安全渗透测试的时候,首先要做的就是尽可能多地收集目标应用程序信息,所以,信息搜集是渗透测试一个必不可少的步骤。

【51CTO.com独家特稿】当我们进行安全渗透测试的时候,首先要做的就是尽可能多地收集目标应用程序信息,所以,信息搜集是渗透测试一个必不可少的步骤。这项任务可以通过多种不同的方式来完成,

通过使用搜索引擎、扫描器、发送简单的HTTP请求或者专门精心制作的请求,都有可能导致应用程序泄漏诸如错误信息、版本信息以及所使用的技术等信息。

一、测试robots.txt文件

现在,我们首先介绍如何测试robots.txt文件。Web蜘蛛/机器人/爬虫可以用来检索网页,并沿着超链接进一步探索更多、更深的Web内容。当然,网站可以在根目录放上一个robots.txt文件,这样就可以规定哪些Web蜘蛛行为是站点可以接受的,那些是禁止的。

举例来说,我们可以看一下http://www.google.com/robots.txt的内容片断:

User-agent: *
Allow: /searchhistory/
Disallow: /news?output=xhtml&
Allow: /news?output=xhtml
Disallow: /search
Disallow: /groups
Disallow: /images
...

伪指令User-Agent表示具体的Web蜘蛛/机器人/网络爬虫。例如User-Agent:Googlebot 表示GoogleBot网络爬虫,而User-Agent:* 泛指所有的Web蜘蛛/机器人/网络爬虫:

User-agent: *

伪指令Disallow的作用是规定哪些资源对蜘蛛/机器人/网络爬虫来说是禁用的。在上面的例子中,禁止蜘蛛访问下列目录:

... 
Disallow: /search
Disallow: /groups
Disallow: /images
...

Web蜘蛛/机器人/网络爬虫可以故意忽略robots.txt文件中的“禁令”。因此,不要把robots.txt当成是限制第三方访问、存储或者转帖web内容的灵丹妙药。

下面是针对robots.txt文件的黑盒子测试及用例:

Wget

Robots.txt文件可以从Web服务器的web根目录下找到。比如,可以使用wget检索www.google.com站点中的robots.txt,如下所示:

$ wget http://www.google.com/robots.txt
--23:59:24-- http://www.google.com/robots.txt
          
=> 'robots.txt'
Resolving www.google.com... 74.125.19.103, 74.125.19.104, 74.125.19.147, ...
Connecting to www.google.com|74.125.19.103|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/plain]
 
[ <=>                                 ] 3,425        --.--K/s
23:59:26 (13.67MB/s) - 'robots.txt' saved [3425]

使用Google Webmaster Tools分析robots.txt

Google的Google Webmaster Tools提供了一个robots.txt分析功能,所以,在渗透测试时我们可以利用它来分析robots.txt,具体方法如下所示:

1. 用Google帐户登陆Google Webmaster Tools。

2. 在Dashboard上,单击想要分析的站点URL。

3. 单击Tools按钮,然后单击Analyze robots.txt。 #p#

二、利用搜索引擎进行侦察

下面将介绍如何搜索Google Index 并从Google Cache中删除有关的web内容。我们知道,GoogleBot一旦完成爬行过程,它就会根据标签和有关属性(诸如

Bad request

Your browser sent to query this server could not understand. 
 

来自SunONE 6.1的响应:

$ nc sunone.example.com 80 
GET / JUNK/1.0

Bad request

Your browser sent a query this server could not understand.

自动测试方法

获取Web服务器指纹的方法有多种。上面介绍的是手动方法,下面介绍一些通过工具自动进行的测试方法。其中,httprint就是这样一种工具。Httprint具有一个特征码字典,籍此可以识别目标服务器的类型和版本。下图是一个用法示例:

 
图3

联机测试

在线工具的一个例子Netcraft,它能带给我们大量目标服务器的有用信息。通过它,我们可以检索操作系统、使用的Web服务器、服务器的运行时间、Netblock属主、与Web服务器和操作系统有关系的修改记录等信息。例如:

 
图4

五、小结

当我们进行安全渗透测试的时候,首先要做的就是尽可能多地收集目标应用程序信息,所以,信息搜集是渗透测试一个必不可少的步骤。本文为读者介绍了如何测试robots.txt文件、利用搜索引擎进行搜集有用信息以及识别应用程序入口的方法。在本文的下篇中,我们将为读者详细介绍如何测试目标地址上运行了哪些应用程序,以及如何通过错误信息提前有用消息的具体方法。

【51CTO.COM 独家特稿,转载请注明出处及作者!】

责任编辑:许凤丽 来源: 51CTO.com
相关推荐

2009-08-17 16:00:14

2009-08-26 10:49:54

2021-05-13 20:38:30

2010-01-11 21:19:57

2017-01-12 08:51:41

2020-12-30 10:38:41

Web安全内网工具

2017-01-19 09:30:10

2014-06-09 14:18:24

2014-01-09 10:49:55

2022-01-17 07:22:11

Web应用渗透

2019-09-15 14:07:49

2010-08-14 21:59:35

2009-11-25 10:57:17

2020-11-16 16:13:06

网络安全互联网渗透测试

2011-11-15 10:35:26

2021-08-05 11:30:49

Linux渗透测试

2011-04-18 09:34:16

2016-11-11 08:51:47

2016-08-31 09:19:57

2021-10-11 10:39:13

内网信息收集
点赞
收藏

51CTO技术栈公众号