分片是指将数据拆分,拆分后存放在不同的机器上的过程,以此来降低单个服务器的压力,同时也解决单个服务器硬盘空间不足的问题,让我们可以用廉价的机器实现高性能的数据架构。
有的小伙伴不理解分片和副本集的差异,一言以蔽之:副本集上每个备份节点存储的数据都是相同的,分片上存储的数据则是不同的。好了,本文我们就先来看看分片环境的搭建。
# 环境准备
准备三台已经装好了 MongoDB 的服务器,地址分别是:
192.168.248.128
192.168.248.135
192.168.248.136
本文使用的 MongoDB 版本为 3.4.9
# 规划
首先我们需要三台配置服务器,配置服务器相当于集群的大脑,配置服务器中保存着集群和分片的元数据,即每个分片都包含了哪些数据信息,这些数据都是保存在配置服务器中的,我这里将开启三个配置服务器实例,这三个配置服务器将运行在三个 MongoDB 服务器上,地址分别如下:
192.168.248.128:20000
192.168.248.135:20000
192.168.248.136:20000
接下来需要一个 Mongos 实例,Mongos 对请求进行路由,Mongos 扮演的角色有点类似于一个门面,我们以后访问的时候,直接访问 Mongos 即可,再由 Mongos 将请求路由到不同的分片上去,Mongos 在启动时会去访问配置服务器,它将从配置服务器中获取数据的存储信息,Mongos 我将启动在如下服务器上:
192.168.248.128:30000
最后需要三个分片实例,三个分片依然运行在三台服务器上,如下:
192.168.248.128:27017
192.168.248.135:27017
192.168.248.136:27017
# 搭建配置服务器
配置服务器中不需要太多的空间和资源,因为配置服务器上保存的只是数据的分布表,不保存具体的数据,具体的数据都保存在分片上,配置服务器中 1KB 的空间约为 200MB 的真实数据。注意,从 MongoDB3.4 开始,配置服务器要做成集群的方式。
由于配置服务器是独立的 mongod 进程,所以我们可以像启动普通的 MongoDB 服务一样启动配置服务器,只是这里的配置不同罢了。
我这里以 192.168.248.128
服务器为例来讲述配置服务器的配置启动,另外两台服务器如法炮制即可:
- 在 mongodb 解压目录下创建 db20000 文件夹,用来存储配置服务器中的数据。
- 复制一份 mongodb.conf,命名为 mongodb20000.conf,修改文件内容如下:
dbpath=/opt/mongodb/db20000
logpath=/opt/mongodb/logs/mongodb20000.log
port=20000
fork=true
configsvr=true
replSet=rs
注意 dbpath 改为我们第一步创建的目录,端口号改为 20000 (这个随意,只要该端口没被占用即可), configsvr 表示这是一个配置服务器,另外由于我们的配置服务器要做成备份集,所以要设置 replSet。
3.做好前两步之后,执行如下命令启动配置服务器:
mongod -f /opt/mongodb/bin/mongodb20000.conf
最后,在另外两台服务器上重复上面三个步骤。
三台服务器上都启动成功之后,参考我们之前的MongoDB 副本集搭建一文,将这三台配置服务器配成一个副本集,副本集的配置我这里就不再赘述。
# 搭建Mongos
Mongos 实例我们可以启动在任意一台服务器上,我这里就启动在 192.168.248.128
上,Mongos 的配置步骤如下:
1.复制一份 mongodb.conf,命名为 mongos.conf,修改内容:
logpath=/opt/mongodb/logs/mongos.log
port=30000
fork=true
configdb=rs/192.168.248.128:20000,192.168.248.135:20000,192.168.248.136:20000
因为 mongos 中不需要保存数据,所以不需要 dbpath,端口号改为 30000,configdb 表示三个配置服务器的地址,注意最前面的 rs 表示配置服务器副本集的名称。
2.配置完成后,执行如下命令启动 mongos:
mongos -f /opt/mongodb/bin/mongos.conf
# 搭建三个分片
三个分片实际上就是三个普通的 MongoDB 服务器,给大家看下我的配置文件:
dbpath=/opt/mongodb/db
logpath=/opt/mongodb/logs/mongodb.log
port=27017
fork=true
shardsvr=true
注意多了个 shardsvr 表示这是一个分片服务器。 然后在三台服务器上分别执行如下命令启动分片:
mongod -f /opt/mongodb/bin/mongodb.conf
# 添加分片
上面三个步骤完成之后,我们就进入到 mongos 的 shell 命令行了,如下:
mongo --port=30000
然后我们可以通过如下命令查看一下分片的当前状态:
sh.status()
执行结果如下(部分):
--- Sharding Status ---
sharding version: {
}
shards:
databases:
shards 表示分片服务器,目前还没有,databases 表示分片的库,目前也还没有,接下来我们通过如下命令添加分片服务器:
sh.addShard("192.168.248.128:27017")
sh.addShard("192.168.248.135:27017")
sh.addShard("192.168.248.136:27017")
添加三个分片服务器,然后再执行 sh.status()
,结果如下(部分):
--- Sharding Status ---
sharding version: {
}
shards:
{ "_id" : "shard0000", "host" : "192.168.248.128:27017", "state" : 1 }
{ "_id" : "shard0001", "host" : "192.168.248.135:27017", "state" : 1 }
{ "_id" : "shard0002", "host" : "192.168.248.136:27017", "state" : 1 }
databases:
{ "_id" : "test", "primary" : "shard0000", "partitioned" : false }
# 设置集合分片
接下来我们来设置集合的分片,首先执行如下命令表示给某个数据库分片:
sh.enableSharding("sang")
对集合分片时,需要选择一个片键,片键实际上就是集合中的一个键,MongoDB 将根据这个片键来拆分数据,我们需要先对片键建立索引,如下:
db.c1.ensureIndex({x:1})
然后以 x 为片键,对 c1 集合进行分片,如下:
sh.shardCollection("sang.c1",{x:1})
做完这些之后,再执行 sh.status()
命令,查看目前状态,结果如下(部分):
--- Sharding Status ---
sharding version: {
}
shards:
{ "_id" : "shard0000", "host" : "192.168.248.128:27017", "state" : 1 }
{ "_id" : "shard0001", "host" : "192.168.248.135:27017", "state" : 1 }
{ "_id" : "shard0002", "host" : "192.168.248.136:27017", "state" : 1 }
databases:
{ "_id" : "test", "primary" : "shard0000", "partitioned" : false }
{ "_id" : "sang", "primary" : "shard0001", "partitioned" : true }
sang.c1
shard key: { "x" : 1 }
unique: false
balancing: true
chunks:
shard0001 1
{ "x" : { "$minKey" : 1 } } -->> { "x" : { "$maxKey" : 1 } } on : shard0001 Timestamp(1, 0)
做完上面这些之后,我们再做两个操作:
1.设置自动分片:
sh.setBalancerState(true)
2.设置 chunksize,chunksize 这一项是用来指定 chunk 的大小的,为了方便测试分片效果,我们把 chunksize 指定为 1MB,即当这个分片中插入的数据大于 1M 时开始进行数据分片
db.settings.save({_id:"chunksize",value:1})
OK,做好这些之后,大功告成。
# 测试
测试方式很简单,我们直接在 mongos 的命令行向 sang 的 c1 集合中插入 50000 条数据,然后再查看这些数据的分布,就知道分片有没有成功了:
for(var i=0;i<50000;i++){db.c1.insert({x:Math.random()*1000000,name:"hahah"+i})}
然后执行 db.c1.stats()
,结果如下:
{
"sharded" : true,
"capped" : false,
"ns" : "sang.c1",
"count" : 50000,
"size" : 2688890,
"storageSize" : 1781760,
"totalIndexSize" : 1978368,
"avgObjSize" : 53,
"nindexes" : 2,
"nchunks" : 5,
"shards" : {
"shard0000" : {
"ns" : "sang.c1",
"size" : 926504,
"count" : 17229,
"avgObjSize" : 53,
"storageSize" : 462848,
"capped" : false,
"nindexes" : 2,
"totalIndexSize" : 516096,
"indexSizes" : {
"_id_" : 184320,
"x_1" : 331776
},
"ok" : 1
},
"shard0001" : {
"ns" : "sang.c1",
"size" : 392593,
"count" : 7299,
"avgObjSize" : 53,
"storageSize" : 667648,
"capped" : false,
"nindexes" : 2,
"totalIndexSize" : 737280,
"indexSizes" : {
"_id_" : 253952,
"x_1" : 483328
},
"ok" : 1
},
"shard0002" : {
"ns" : "sang.c1",
"size" : 1369793,
"count" : 25472,
"avgObjSize" : 53,
"storageSize" : 651264,
"capped" : false,
"nindexes" : 2,
"totalIndexSize" : 724992,
"indexSizes" : {
"_id_" : 237568,
"x_1" : 487424
},
"ok" : 1
}
}
}
OK,看到如上结果,说明我们的数据已经分布在三个分片服务器中了。
好了,MongoDB 中分片环境的搭建我们就先说到这里,小伙伴们有问题欢迎留言讨论。 参考资料:
- 《MongoDB权威指南第2版》