阿福Chris
发布于

【问题】请问扩容如何不再重新分布数据?

根据常规的理解,多个 pg 节点在 hdfs 上也是按照节点将数据分成一份份的,在节点扩容过程中,数据不重分布,怎么保证新节点的数据分布是均匀的呢?

评论(2)
  • 阿福Chris
    阿福Chris 回复
    huor huor 2022-05-06 09:48:55

    对于 hash 表来说,如果想利用到新扩容的机器的算力,就需要做数据的重分布。对于 random 表来说,扩容后利用 HDFS 的 reblance 就可以在后台将数据均匀分布到新扩容的节点上,从数据库层面上不需要做重分布的。

    好的,谢谢老师,了解了

  • huor
    huor 回复

    对于 hash 表来说,如果想利用到新扩容的机器的算力,就需要做数据的重分布。对于 random 表来说,扩容后利用 HDFS 的 reblance 就可以在后台将数据均匀分布到新扩容的节点上,从数据库层面上不需要做重分布的。

test