如今,企业中用来检测高级安全威胁和支持业务发展的数据量呈指数级增长,与此同时企业安全管理人员也经常被要求要整合不同来源和连接点的数据,并对可能出现的网络攻击或数据泄露进行检测。这种依赖于手动操作来梳理庞大的数据是导致关键问题无法得到及时处理的主要原因之一,这也解释了为何“大数据的安全”常被认为是个烫手山芋,尽管它在企业安全中低调地扮演着重要角色。
大数据安全领域的噱头不少,虽然它通常被应用在刺激企业营收的文案中,但是大数据代表了安全从业者需要面对巨大的挑战。一些规则犹如雨后春笋般出现,如PCI DSS 3.0,NIST,FISMA等。安全状态评估更为频繁,而不断增加的网络攻击也使安全问题更棘手。在Gartner Neil MacDonald 2012年3月的文章《信息安全正成为大数据分析难题》中,作者写道:“到2016年,企业信息安全组织分析的数据量每年都将翻倍。届时,40%的企业都会主动分析至少10T的数据用于搜集信息安全情报,较之2011年,涨幅将近3%。”
为确保实现合适的聚合,许多组织都依赖多个基于大型数据存储的工具,(例如,欺诈和数据丢失防护、漏洞管理、SIEM)以生成必要的安全数据。这只会增加要分析,标准化和优先的数据服务的数量,速度和复杂度。这和自适应验证不同,自适应验证被用于支付行业里防御诈骗的行为模式自动分析,而许多常用的安全工具都缺乏自助分析的能力。要被分析的安全数据规模也变得太庞大太复杂,从而难以掌控。现在要拼凑一幅可行的蓝图需要几个月甚至几年的时间。
不幸的是,依赖手动操作来梳理这么庞大的数据导致重要事情无法得到及时处理的主要原因之一。根据2013年 Verizon 数据泄露调查报告统计,69%的数据泄露都是由第三方组织发现的,而并非通过内部资源发现。
其实,安全工作的最终目的是减少攻击者可以利用的软件或网络配置漏洞的缺陷。大数据集有助于把指定的行为放到语境中,但是还存在一些要克服的技术挑战。在大型数据存储中运行的传统安全工具也会把业务临界纳入考虑之中,以便处理大型数据集时做优先纠正的操作。
这就引出了一个问题,企业如何才能在不雇佣大量新员工的前提下利用大数据安全呢?
虽然安全产品的监控产生了大数据,但是根本上来说这只是手段而不是目的。最终,信息安全的决策的制定应该是源自于从数据中得出优先可操作的洞察力。为了实现这个目的,需要大量的安全数据和企业的业务关键性的风险或组织关联起来。如果没有基于风险管理的方式,企业可能把有价值的IT资源浪费到解决无关紧要的漏洞上。而且,需要过滤庞大的安全数据来判断与特定持股人的责任相关的信息。在大数据利用方面,没有谁的需求和目的是完全相同的。
为了应对大数据的安全性,实现可持续的诊断,进步组织正在利用大数据风险管理系统将很多用手动操作的劳动密集型任务转为自动操作。这些系统互相连接数据库安全和IT工具,对其产生的数据进行持续关联和评估,从而采取预防式的主动防护措施。反过来,这样又让企业可以实现一个闭合式,基于风险的自动纠正进程。这样可以节约大量的时间和成本,提高准确度,缩短修复周期,而且能提升整体运行效率。
大数据风险管理系统使企业能够把威胁和漏洞变得可视化和可操作,同时也让他们可以在安全规则被破坏前,优先解决高风险的安全问题。最终,将网络攻击的影响降到最低。
原文链接:http://www.securityweek.com/role-big-data-security