浅析MongoDB数据库分布式存储物理文件

数据库 分布式 MongoDB
今天我们将谈到的是基于MongoDB数据库的分布式存储物理文件,包括测试的过程,希望本文能对大家有所帮助。

我们知道了如何对关系型数据数据通过auto-sharding进行分布式数据存储,今天介绍如何对物理文件(小文件,基本小于100K)进行分布式存储。

接着看一下要配置的测试环境(与前一篇中类似):

 模拟2个shard服务和一个config服务, 均运行在10.0.4.85机器上,只是端口不同:    

Shard1:27020

Shard2:27021

Config:27022

Mongos启动时默认使用的27017端口

在C,D,E磁盘下分别建立如下文件夹:

mongodb\bin

mongodb\db

然后用CMD命令行依次打开相应文件夹下的mongd文件:

c:\mongodb\bin\mongod --dbpath c:\mongodb\db\ --port 27020

d:\mongodb\bin\mongod --dbpath d:\mongodb\db\ --port 27021

e:\mongodb\bin\mongod --configsvr --dbpath e:\mongodb\db\ --port 27022   (注:config配置服务器)

启动mongos时,默认开启了27017端口

e:\mongodb\bin\mongos --configdb 10.0.4.85:27022

然后打开mongo:

E:\mongodb\bin>mongo   回车  (有时加端口会造成下面的addshard命令出问题)

  1.  > use admin  
  2.           switched to db admin  
  3. > db.runCommand( { addshard : "10.0.4.85:27020", allowLocal : 1, maxSize:2 , minKey:1, maxKey:10} )    
  4.  
  5. --添加sharding,maxsize单位是M,此处设置比较小的数值只为演示sharding效果  
  6.  
  7.          { "shardAdded" : "shard0000", "ok" : 1 }  
  8. > db.runCommand( { addshard : "10.0.4.85:27021", allowLocal : 1, minKey:1000} )  
  9.          { "shardAdded" : "shard0001", "ok" : 1 }    

注:如果要移除sharding,可用下面写法

  1.  db.runCommand( { removeshard : "localhost:10000" } );  
  2.  
  3. > db.runCommand({listshards:1});   --查看shard节点列表      
  4. > config = connect("10.0.4.85:27022")  
  5. > configconfig = config.getSisterDB("config")  
  6. > dnt_mongodb=db.getSisterDB("dnt_mongodb");  
  7.           dnt_mongodb  
  8. > db.runCommand({enablesharding:"dnt_mongodb"})  
  9.           { "ok" : 1 }  
  10.      
  11. > db.printShardingStatus()    
  12.  
  1. --- Sharding Status ---  
  2.  sharding version: { "_id" : 1, "version" : 3 }  
  3.  shards:  
  4.      {  
  5.        "_id" : "shard0000",  
  6.        "host" : "10.0.4.85:27020",  
  7.        "maxSize" : NumberLong( 2 )  
  8.      }  
  9.      { "_id" : "shard0001", "host" : "10.0.4.85:27021" }  
  10.  databases:  
  11.        { "_id" : "admin", "partitioned" : false, "primary" : "config" }  
  12.        { "_id" : "dnt_mongodb", "partitioned" : true, "primary" : "shard0001" }  
  13.  
  14. > db.runCommand( { shardcollection : "dnt_mongodb.attach_gfstream.chunks", key : { files_id : 1 } } )  
  15. --此处与之前的数据存储方式有些不同,目前shard似乎仅支持files_id  
  16.       { "collectionsharded" : "dnt_mongodb.attach_gfstream.chunks", "ok" : 1 } 

注:运行上面命令之前需要设置files_id为唯一索引[unique index]。        

创建完sharding和设置相应信息后,我们加载一下测试数据,我用下面代码来读取要本地文件,然后批量向mongodb中添加(通过循环修改文件名来添加相同大小的文件)。       

  1. /// <summary>  
  2.         /// 上传文件到mongodb  
  3.         /// </summary>  
  4.         /// <param name="uploadDir">要上传文件所在路径</param>  
  5.         /// <param name="fileName">要上传的文件名</param>  
  6.         /// <returns></returns>  
  7.         public bool UploadFile(string uploadDir, string fileName)  
  8.         {  
  9.             for (int i = 1; i < 10000; i++)  
  10.             {  
  11.                 try 
  12.                 {  
  13.                     Mongo mongo = mongoDB;  
  14.                     mongo.Connect();  
  15.                     IMongoDatabase DB = mongo["dnt_mongodb"];  
  16.  using (FileStream fileStream = new FileStream(uploadDir + fileName, FileMode.Open))  
  17.                     {  
  18.                         int nFileLen = (int)fileStream.Length;  
  19.  
  20.                         byte[] myData = new Byte[nFileLen];  
  21.                         fileStream.Read(myData, 0, nFileLen);  
  22.  
  23.                         GridFile fs = new GridFile(DB, "attach_gfstream");  
  24.                         using (GridFileStream gfs = fs.Create(fileName + i))  
  25.                         {  
  26.                             gfs.Write(myData, 0, nFileLen);  
  27.                         }  
  28.                     }  
  29.                     mongo.Disconnect();  
  30.                 }  
  31.                 catch { }           
  32.             }  
  33.             return true;  
  34.         } 

在批量添加约10000次(约10000个文件)之后,mongodb开始把sharding出来的chunk从shard0000分布到shard0001上,我们可以用下面指令来进行验证:

> db.printShardingStatus()

  1. --- Sharding Status ---  
  2.   sharding version: { "_id" : 1, "version" : 3 }  
  3.   shards:  
  4.       {  
  5.         "_id" : "shard0000",  
  6.         "host" : "10.0.4.85:27020",  
  7.         "maxSize" : NumberLong( 2 )  
  8.       }  
  9.       { "_id" : "shard0001", "host" : "10.0.4.85:27021" }  
  10.   databases:  
  11.         { "_id" : "admin", "partitioned" : false, "primary" : "config" }  
  12.         { "_id" : "dnt_mongodb", "partitioned" : true, "primary" : "shard0000" }  
  13.  
  14.                 dnt_mongodb.attach_gfstream.chunks chunks:  
  15.                         { "files_id" : { $minKey : 1 } } -->> { "files_id" : ObjectId("4c85fd02145a9b1534010d89") } on : shard0001 { "t" : 2000, "i" : 0 }  
  16.                         { "files_id" : ObjectId("4c85fd02145a9b1534010d89") } -->> { "files_id" : ObjectId("4c85fdec145a9b0b340005a7") } on : shard0000 { "t" :3000, "i" : 1 }  
  17.                         { "files_id" : ObjectId("4c85fdec145a9b0b340005a7") } -->> { "files_id" : ObjectId("4c85fe08145a9b0b34000aaf") } on : shard0001 { "t" :3000, "i" : 4 }  
  18.                         { "files_id" : ObjectId("4c85fe08145a9b0b34000aaf") } -->> { "files_id" : ObjectId("4c85fe27145a9b0b34000fb7") } on : shard0001 { "t" :4000, "i" : 1 }  
  19.                         { "files_id" : ObjectId("4c85fe27145a9b0b34000fb7") } -->> { "files_id" : ObjectId("4c85fe43145a9b0b340014bf") } on : shard0000 { "t" :4000, "i" : 7 }  
  20.                         { "files_id" : ObjectId("4c85fe43145a9b0b340014bf") } -->> { "files_id" : ObjectId("4c85fe61145a9b0b340019c7") } on : shard0000 { "t" :4000, "i" : 8 }  
  21.                         { "files_id" : ObjectId("4c85fe61145a9b0b340019c7") } -->> { "files_id" : ObjectId("4c85fe7b145a9b0b34001ecf") } on : shard0000 { "t" :5000, "i" : 1 }  
  22.                         { "files_id" : ObjectId("4c85fe7b145a9b0b34001ecf") } -->> { "files_id" : ObjectId("4c85fe9a145a9b0b340023d7") } on : shard0001 { "t" :5000, "i" : 4 }  
  23.                         { "files_id" : ObjectId("4c85fe9a145a9b0b340023d7") } -->> { "files_id" : ObjectId("4c85feb7145a9b0b340028df") } on : shard0001 { "t" :6000, "i" : 1 }  
  24.                         { "files_id" : ObjectId("4c85feb7145a9b0b340028df") } -->> { "files_id" : ObjectId("4c85feea145a9b0b340032ef") } on : shard0000 { "t" :6000, "i" : 4 }  
  25.                         { "files_id" : ObjectId("4c85feea145a9b0b340032ef") } -->> { "files_id" : ObjectId("4c85ff25145a9b0b34003cff") } on : shard0000 { "t" :7000, "i" : 1 }  
  26.                         { "files_id" : ObjectId("4c85ff25145a9b0b34003cff") } -->> { "files_id" : ObjectId("4c85ff57145a9b0b3400470f") } on : shard0001 { "t" :7000, "i" : 4 }  
  27.                         { "files_id" : ObjectId("4c85ff57145a9b0b3400470f") } -->> { "files_id" : ObjectId("4c85ff87145a9b0b3400511f") } on : shard0001 { "t" :8000, "i" : 1 }  
  28.                         { "files_id" : ObjectId("4c85ff87145a9b0b3400511f") } -->> { "files_id" : ObjectId("4c85ffcd145a9b0b34005b2f") } on : shard0000 { "t" :8000, "i" : 16 }  
  29.                         { "files_id" : ObjectId("4c85ffcd145a9b0b34005b2f") } -->> { "files_id" : ObjectId("4c85fff7145a9b0b3400653f") } on : shard0000 { "t" :8000, "i" : 17 }  
  30.                         { "files_id" : ObjectId("4c85fff7145a9b0b3400653f") } -->> { "files_id" : ObjectId("4c860021145a9b0b34006f4f") } on : shard0000 { "t" :8000, "i" : 18 }  
  31.                         { "files_id" : ObjectId("4c860021145a9b0b34006f4f") } -->> { "files_id" : ObjectId("4c86004f145a9b0b3400795f") } on : shard0000 { "t" :8000, "i" : 19 }  
  32.                         { "files_id" : ObjectId("4c86004f145a9b0b3400795f") } -->> { "files_id" : ObjectId("4c860080145a9b0b3400836f") } on : shard0000 { "t" :9000, "i" : 1 }  
  33.                         { "files_id" : ObjectId("4c860080145a9b0b3400836f") } -->> { "files_id" : ObjectId("4c8600b5145a9b0b34008d7f") } on : shard0001 { "t" :9000, "i" : 7 }  
  34.                         { "files_id" : ObjectId("4c8600b5145a9b0b34008d7f") } -->> { "files_id" : ObjectId("4c860115145a9b0b3400a183") } on : shard0001 { "t" :9000, "i" : 8 }  
  35.                         { "files_id" : ObjectId("4c860115145a9b0b3400a183") } -->> { "files_id" : ObjectId("4c860198145a9b0b3400b587") } on : shard0001 { "t" :10000, "i" : 1 }  
  36.                         { "files_id" : ObjectId("4c860198145a9b0b3400b587") } -->> { "files_id" : ObjectId("4c8601fc145a9b0b3400c98b") } on : shard0000 { "t" :10000, "i" : 11 }  
  37.                         { "files_id" : ObjectId("4c8601fc145a9b0b3400c98b") } -->> { "files_id" : ObjectId("4c86025b145a9b0b3400dd8f") } on : shard0000 { "t" :10000, "i" : 12 }  
  38.                         { "files_id" : ObjectId("4c86025b145a9b0b3400dd8f") } -->> { "files_id" : ObjectId("4c8602ca145a9b0b3400f193") } on : shard0000 { "t" :10000, "i" : 13 }  
  39.                         { "files_id" : ObjectId("4c8602ca145a9b0b3400f193") } -->> { "files_id" : ObjectId("4c860330145a9b0b34010597") } on : shard0000 { "t" :10000, "i" : 14 }  
  40.                         { "files_id" : ObjectId("4c860330145a9b0b34010597") } -->> { "files_id" : { $maxKey : 1 } } on : shard0000 { "t" : 10000, "i" : 15 } 

当前,综合比较,发现还是chunks的值要远大于files集合所占用的磁盘空间(前者存储文件二进制流信息,后者存储结构化数据信息(如文件名称大小等):

      

  磁盘信息比较    

    

  

下面是一个测试,用于读写shard0001(注意不是shard0000)上的图片数据,因为mongos可以很好的管理sharding下各分区下的数据chunk,所以我们只要告诉它要取的文件名称即可:)

比如要获取"2010\09\07\2\2856090617370.gif6243"这个文件(带日期型文件路径只是一种格式,因为我们的产品会将上传的附件放到相应磁盘目录下,这种带路径的命名方式会方便与磁盘路径进行对应),其目前位于shard0001中,我们只要通过下面html代码即可获取图文件信息:      

  1. <img src="getfile.aspx?filename=2010\09\07\2\2856090617370.gif6243"  width="30" /> 

相应的getfile.aspx.cs 代码参见如下:       

  1. public partial class getfile : System.Web.UI.Page  
  2.     {  
  3.  public Mongo Mongo { getset; }  
  4. public IMongoDatabase DB  
  5.         {  
  6.             get 
  7.             {  
  8.                 return this.Mongo["dnt_mongodb"];  
  9.             }  
  10.         }  
  11.  
  12.         /// <summary>  
  13. /// Sets up the test environment.  
  14. You can either override this OnInit to add custom initialization.  
  15.         /// </summary>  
  16.         public virtual void Init()  
  17.         {  
  18. string ConnectionString = "Server=10.0.4.85:27017;ConnectTimeout=30000;ConnectionLifetime=300000;
  19. MinimumPoolSize=512;MaximumPoolSize=51200;Pooled=true";  
  20. if (String.IsNullOrEmpty(ConnectionString))  
  21. throw new ArgumentNullException("Connection string not found.");  
  22.             this.Mongo = new Mongo(ConnectionString);  
  23.             this.Mongo.Connect();    
  24.         }   
  25.  
  26.         protected void Page_Load(object sender, EventArgs e)  
  27.         {  
  28.             if (!string.IsNullOrEmpty(Request.QueryString["filename"]))  
  29.             {  
  30.                 string filename = Request.QueryString["filename"];  
  31.                 Init();  
  32.                 String filesystem = "attach_gfstream";  
  33.  
  34.                 GridFile fs = new GridFile(DB, filesystem);  
  35.                 GridFileStream gfs = fs.OpenRead(filename);  
  36.  
  37.                 Byte[] buffer = new Byte[gfs.Length];  
  38.  
  39. //下面的Expires和Cache-Control设置主要用于squid反向加速
  40. 更多内容参见  http://www.cnblogs.com/daizhj/archive/2010/08/19/1803454.html  
  41.                 HttpContext.Current.Response.AddHeader("Expires", DateTime.Now.AddDays(20).ToString("r"));  
  42.                 HttpContext.Current.Response.AddHeader("Cache-Control""public");  
  43.     
  44.                 // 需要读的数据长度  
  45.                 long dataToRead = gfs.Length;  
  46.                 int length;  
  47.                 while (dataToRead > 0)  
  48.                 {  
  49.                     // 检查客户端是否还处于连接状态  
  50.                     if (HttpContext.Current.Response.IsClientConnected)  
  51.                     {  
  52.                         length = gfs.Read(buffer, 0, 10000);  
  53.                         HttpContext.Current.Response.OutputStream.Write(buffer, 0, length);  
  54.                         HttpContext.Current.Response.Flush();  
  55.                         buffer = new Byte[10000];  
  56.                         dataToRead = dataToRead - length;  
  57.                     }  
  58.                     else 
  59.                     {  
  60.                         // 如果不再连接则跳出死循环  
  61.                         dataToRead = -1;  
  62.                     }  
  63.                 }  
  64.                 gfs.Dispose();  
  65.                 this.Mongo.Disconnect();  
  66.                 HttpContext.Current.Response.End();           
  67.             }  
  68.         }  
  69.     } 

当然,上面只是对chunks进行sharding,如果要对files集合分片时,可以用下面命令行:            

  1. > db.runCommand( { shardcollection : "dnt_mongodb.attach_gfstream.files", key : { _id : 1 } } )    
  2. { "collectionsharded" : "dnt_mongodb.attach_gfstream.files", "ok" : 1 } 

在我添加了近50万记录后,mongos开始将新的文件信息保存到shard0001上,如下图:

              

可以使用如下命令行来查看 shard上的信息:

  1. > db.printShardingStatus()  
  2.  .../省略之前files_id的shard信息  
  3.  { "filename" : { $minKey : 1 } } -->> { "filename" : "2010\\09\\08\\2\\1393993713076.gif1" } on : shard0000 { "t" : 1000, "i" : 6 }  
  4.  { "filename" : "2010\\09\\08\\2\\1393993713076.gif1" } -->> { "filename" : "2010\\09\\08\\2\\2396571814760.gif9999" } on : shard0000 { "t" : 1000, "i" : 7 }  
  5.  { "filename" : "2010\\09\\08\\2\\2396571814760.gif9999"} -->> { "filename" : "2010\\09\\08\\2\\2819270318096.gif25366" } on : shard0000 { "t" : 2000, "i" : 2 }  
  6.  { "filename" : "2010\\09\\08\\2\\2819270318096.gif25366" } -->> { "filename" : "2010\\09\\08\\2\\3100748419355.gif999" } on : shard0000{ "t" : 2000, "i" : 3 }  
  7.  { "filename" : "2010\\09\\08\\2\\3100748419355.gif999" } -->> { "filename" : { $maxKey : 1 } } on : shard0001 { "t" : 2000, "i" : 0 } 

下面是mongos上进行sharding时的信息:    

  1.  Wed Sep 08 17:25:44 [conn5] ns: dnt_mongodb.attach_gfstream.files ClusteredCursor::query ShardConnection had to change attempt: 0  
  2.      Wed Sep 08 17:32:34 [conn6] ns: dnt_mongodb.attach_gfstream.files ClusteredCursor::query ShardConnection had to change attempt: 0  
  3.      Wed Sep 08 17:38:49 [conn55] autosplitting dnt_mongodb.attach_gfstream.chunks size: 188884488 shard: ns:dnt_mongodb.attach_gfstream.chunks at: shard0001:10.0.4.85:27021 lastmod: 11|3 min: { files_id: ObjectId('4c8755b3145a9b16d41d5dc9') } m  
  4. ax: { files_id: MaxKey } on: { files_id: ObjectId('4c8759a5145a9b16d42300d7') }(splitThreshold 188743680)  
  5.      Wed Sep 08 17:38:49 [conn55] config change: { _id: "4_85-2010-09-08T09:38:49-10", server: "4_85", time: new Date(1283938729648), what: "split", ns: "dnt_mongodb.attach_gfstream.chunks", details: { before: { min: { files_id: ObjectId('4c8755  
  6. b3145a9b16d41d5dc9') }, max: { files_id: MaxKey } }, left: { min: { files_id: ObjectId('4c8755b3145a9b16d41d5dc9') }, max: { files_id: ObjectId('4c8759a5145a9b16d42300d7') } }, right: { min: { files_id: ObjectId('4c8759a5145a9b16d42300d7')  
  7. }, max: { files_id: MaxKey } } } }  
  8.      Wed Sep 08 17:38:49 [conn98] ns: dnt_mongodb.attach_gfstream.chunks ClusteredCursor::query ShardConnection had to change attempt: 0 

好了,今天的文章就先到这里了。

原文标题:基于Mongodb分布式存储物理文件

链接:http://www.cnblogs.com/daizhj/archive/2010/09/08/1821481.html

【编辑推荐】

  1. MongoDB CEO谈NoSQL的大数据量处理能力
  2. 抛弃关系数据库 PHP程序员应了解MongoDB的五件事
  3. MongoDB,无模式文档型数据库简介
  4. 关系数据库的末日是否已经来临
  5. 扔掉沉没成本 尝试关系数据库替代品OODBMS  
责任编辑:彭凡 来源: 博客园
相关推荐

2019-06-10 14:31:24

MySQL存储数据库

2012-05-10 10:49:41

MongoDB

2021-11-08 10:52:02

数据库分布式技术

2011-03-18 08:51:23

MongoDB分布式文档

2023-09-11 11:22:22

分布式数据库数据库

2023-03-26 12:43:31

数据库KeyValue

2013-04-26 16:18:29

大数据全球技术峰会

2021-12-20 15:44:28

ShardingSph分布式数据库开源

2023-12-05 07:30:40

KlustronBa数据库

2014-06-30 14:20:05

NoSQL数据库

2009-06-19 15:28:31

JDBC分布式事务

2018-01-02 20:00:28

数据库MySQL分布式存储

2023-08-22 13:16:00

分布式数据库架构数据存储

2023-11-14 08:24:59

性能Scylla系统架构

2023-12-18 11:21:40

MongoDB数据库

2017-10-17 08:33:31

存储系统分布式

2009-12-31 09:51:59

BeansDB键值存储

2024-03-11 08:57:02

国产数据库证券

2021-07-30 06:58:28

数据库分布式映射

2023-07-31 08:27:55

分布式数据库架构
点赞
收藏

51CTO技术栈公众号