
1 pigeon2049 2023 年 11 月 29 日 多服务器组集群 ,上分布式存储 ceph 多副本策略 单台机器挂了换就行了 完全不影响数据读写 组 raid 的风险在于重建失败和重建过程过长,真上生产还得是分布式文件系统 |
2 hefish 2023 年 11 月 29 日 楼上的大佬,您觉着 OP 大大能搞得定 ceph 不?哈哈。。。 还是自己做备份吧。 |
3 0bing 2023 年 11 月 29 日 服务器就算炸了,只要 raid 存储着,冗余盘够就还能重建呀,只是重建时间。。。。 目前在用 zfs ,也不用 raid 了,定期冷备,爱咋地咋地。 |
4 winfura02 2023 年 11 月 29 日 还是 PostgreSQL 配合 Citus 分布式存储分片数据香: SET citus.shard_replication_factor = 2; Node1: 分片 1, 分片 2 的副本 Node2: 分片 2, 分片 3 的副本 Node3: 分片 3, 分片 4 的副本 Node4: 分片 4, 分片 5 的副本 Node5: 分片 5, 分片 1 的副本 可以增加副本数量:SET citus.shard_replication_factor = 3; Node1: 分片 1, 分片 2 的副本, 分片 3 的副本 Node2: 分片 2, 分片 3 的副本, 分片 4 的副本 Node3: 分片 3, 分片 4 的副本, 分片 5 的副本 Node4: 分片 4, 分片 5 的副本, 分片 1 的副本 Node5: 分片 5, 分片 1 的副本, 分片 2 的副本 不知道 TiDB 有没有类似的设置 |
5 dode 2023 年 11 月 29 日 把硬盘取出来,修服务器 |
6 blackbookbj277 2023 年 11 月 30 日 听说菊厂存储,raid 如果有坏盘不及时更换就会接二连三的坏更多块,还说是原厂特性。 |
7 dabai091220 2023 年 12 月 26 日 @blackbookbj277 #6 RAID 本身是有这种特性的,有坏盘就会降级,降级情况下坏盘概率更高 |