这么多年以来,一直有一个声音在“呼唤”健壮的Apache Hadoop安全性架构。考虑到节点保存了大量的数据,集群的安全性架构引起了越来越多的关注。HadoopSphere.com公布了一个可以适用于Apache Hadoop集群的安全性架构(如下图所示)。
虽然基于现有的基础设施或定制的内部监控程序不同,使用的工具也可能有所不同。但是对于依靠Hadoop业务运营的公司来说,部署必不可少的“警卫”和检查,进而来保护Hadoop节点的安全性都是至关重要的。以下的10个组件应该作为部署Apache Hadoop安全性架构的讨论指南。编译如下:
Apache Hadoop安全性架构的关键组件
1. 基于角色的授权(Role based authorization)
确保职责的分离
限制功能性的访问
2. 管理和配置(Admin and Configuration)
基于角色的管理
可配置的节点和集群参数
3. 身份认证框架(Authentication framework)
认证节点
认证客户端应用程序(为了访问集群和MapReduce jobs)
4. 审查日志(Audit Log)
日志事务
日志活动
5. 警报(Alerts)
实时报警
持续性监测
6. 文件加密(File encryption)
保护私有信息 (SPI/BPI)
遵循监管规范
7. 密钥认证服务器(Key certificate Server)
中央密钥管理服务器管理不同文件的不同密钥
8. 网路安全(Network security)
确保节点之间、应用程序之间以及其他接口之间的安全通信
9. 资源控制(Resource slim)
最低限度的网络消耗
最低限度的资源、线程、进程的消耗
10. 通用性(Universal)
Hadoop不可知论 – 跨分布节点之间的兼容
异构支持 – 跨生态系统之间的兼容