
1 TaMud 2016 年 10 月 12 日 一天产生几百 g 数据? 那你可以做个主从服务,从服备份 |
2 Infernalzero 2016 年 10 月 12 日 直接 mysqldump 或者设延时库,单纯的主从备份没用的,你 master 删了 slave 也删了啊 |
3 liyj144 2016 年 10 月 12 日 1. 拆库拆表,多进程(按库)备份。 500G 的数据,普通磁盘几个小时就备份完了。 2. 磁盘上 SSD 会更快,备份完也可以快速跟主库同步。更何况备份是在备机上的, io 高一些影响也不大。 |
4 kanchi240 2016 年 10 月 12 日 Xtrabackup 不是支持增量备份的吗。。“ Xtrabackup 导出有点搞不动”是什么意思? |
5 pc10201 2016 年 10 月 12 日 主从同步,用从库备份,一般是周备,但保留并备份最近 7 天的日志 |
6 ElmerZhang 2016 年 10 月 12 日 专门有个不提供线上服务的从库做备份。 最简单粗暴的备份方法:停实例, rsync 走。 如果不要求保留每天的备份,可以直接搞个延时从库。 |
7 guyskk 2016 年 10 月 12 日 via Android 数据放到 LVM 磁盘上,通过磁盘快照做备份。也许可行。 |
8 msg7086 2016 年 10 月 13 日 主从,随便拿了个 SSD-cached VPS 做的,一个月几欧元的样子。 |
10 sujin190 OP @ElmerZhang 大量数据 rsync 快还是 copy 快,同一台机器上的两块磁盘 |
13 noahzh 2016 年 10 月 13 日 一个专用备份从库,每天用 mysqldump 备份,然后 lz4 压缩,同时也备份 master binlog |
14 zqcolor 2016 年 10 月 13 日 主从服务,从服备份, 同时也备份 master binlog +1 |
15 ElmerZhang 2016 年 10 月 14 日 @sujin190 增量的话 rsync 快,全量的话 cp 快。 还有一个方案是备库跑在 lvm 卷上,直接打快照 |
16 ElmerZhang 2016 年 10 月 14 日 五年前我还调研过一个叫 NILFS 的日志型文件系统,当时还不成熟,现在不知道发展怎么样了,楼主可以看一下。 |
17 yghack 2016 年 10 月 14 日 分库分表 主从 + 从库只读 + 从库备份 顺便拆分 binlog 备份 binlog |
18 Legendzhan 2019 年 9 月 20 日 按表备份到响应的库中,前提是表不要搞的太大 |