基于Hadoop云盘系统2:HDFS文件访问控制

大数据 Hadoop
Hadoop开源技术框架在实际业务应用中,其早期的安全机制饱受诟病,具体到HDFS应用方面的问题,包括:用户到服务器的认证问题、服务器到服务器的认证信息。

一、概述  

Hadoop开源技术框架在实际业务应用中,其早期的安全机制饱受诟病,具体到HDFS应用方面的问题,主要包括以下几个方面:

1.用户到服务器的认证问题

(1)Namenode上没有用户认证:用户只要知道NameNode服务地址和端口信息,就可以访问HDFS,并获取文件namespace信息。

(2)Datanode上没有认证机制:Datanode对读入输出并没有认证,导致如果客户端知道Blockid,就可以任意的访问Datanode上的Block数据。

2.服务器到服务器的认证信息

(1)Namenode对Datanode没有认证机制:非法用户可以伪装成Datanode,去接收Namenode的文件存储任务。

二、hadoop的Security

针对用户到服务器的认证问题,Hadoop在1.0.0版本以后增加了Security认证机制。该机制采用类Unix用户管理机制,文件的创建用户和超级用户拥有对文件的所有权限,包括读和写,其他用户拥有访问权,无写权限。具体来讲就是,连接到hadoop 集群的用户/组信息取决于客户端环境,即客户端主机中`whoami`和`bash –c groups`取到的用户名和组名,没有uid和gid,用户属组列表中只要有一个与集群配置的用户组相同即拥有该组权限。

值得注意的是当前Hadoop的三个主要版本分支中并不是都实现了对其的支持,具体实施时需要注意不同版本的区别。

三、hadoop的kebores

Hadoop的Kebores认证机制,用来解决服务器到服务器的认证,主要涉及云盘系统后台服务分布式集群安全问题,将另开专题讨论。在此不作讨论。

四、云盘系统客户端文件安全保障

云盘系统客户端HDFS文件安全保障主要涉及用户对HDFS文件服务集群的安全访问问题,包括某一个注册用户只能访问属于该用户的空间和某一个用户只能在HDFS空间上访问指定大小的空间两个问题。这里面是涉及一个用户管理和空间管理的问题,在此不作详细介绍。

针对问题一,我们可以通过改造现有HadoopThriftServer或者新增服务机制来解决,即客户端登陆时,返回HDFS上该用户的允许访问路径,用户操作过程中进行访问路径检测,非授权路径自动过滤,不允许访问。

针对问题二,提供用户注册机制,服务端根据用户注册的权属组,调用FSadmin设置用户文件夹的授权大小。

原文链接:http://www.cnblogs.com/hadoopdev/archive/2013/03/07/2947822.html

 

【编辑推荐】

 

责任编辑:彭凡 来源: 博客园
相关推荐

2013-03-11 14:42:08

Hadoop

2013-03-07 14:47:14

Hadoop

2014-06-10 16:51:44

云数据应用访问安全控制

2018-03-01 16:26:30

HDFSHadoop系统

2022-12-30 09:54:55

智能建筑云计算

2009-02-01 10:54:00

MAC地址访问控制

2018-08-14 10:44:58

HadoopHDFS命令

2019-02-20 10:22:20

监控HDFSHadoop

2009-07-29 17:34:00

ibmdwWebSphereMQ

2014-08-11 11:01:43

AngularJS

2013-04-23 11:17:47

Hadoop

2012-05-21 16:08:07

Hadoop云计算

2017-06-08 11:00:09

HDFSHadoopYARN

2020-08-23 11:48:44

Python云盘updog

2016-10-28 22:44:28

网盘云盘

2010-06-03 15:13:34

Hadoop Hdfs

2020-09-14 10:50:24

WindowsWSL 2Linux

2016-06-08 11:52:12

云计算

2015-04-16 14:24:56

Hadoop云计算HDFS

2011-03-15 14:17:28

Oracle自主访问
点赞
收藏

51CTO技术栈公众号