阿福Chris 发布于 2022-04-30 07:44:49 【问题】请问扩容如何不再重新分布数据? 根据常规的理解,多个 pg 节点在 hdfs 上也是按照节点将数据分成一份份的,在节点扩容过程中,数据不重分布,怎么保证新节点的数据分布是均匀的呢? OushuDB 浏览 (968) 点赞 收藏 评论(2) 请 登录后发表观点 阿福Chris 2022-05-06 15:17:36 回复 huor 2022-05-06 09:48:55 对于 hash 表来说,如果想利用到新扩容的机器的算力,就需要做数据的重分布。对于 random 表来说,扩容后利用 HDFS 的 reblance 就可以在后台将数据均匀分布到新扩容的节点上,从数据库层面上不需要做重分布的。 好的,谢谢老师,了解了 huor 2022-05-06 09:48:55 回复 对于 hash 表来说,如果想利用到新扩容的机器的算力,就需要做数据的重分布。对于 random 表来说,扩容后利用 HDFS 的 reblance 就可以在后台将数据均匀分布到新扩容的节点上,从数据库层面上不需要做重分布的。 到底啦 test