最近在做架构迁移,sqlserver 到 mysql 的,涉及表拆分,业务表整合
拆分和整合等业务层面对数据表的转换我在 sqlserver 端用视图处理掉了,目前是用 kettle 做数据传输
现在有个问题,性能跟不上,每秒处理数据量才 7000 多,sqlserver 待迁移的数据库有 800G,跑了快一天都没跑完仿真测试
数据源是线上 slave 机器,配置为E5 2678 256G 内存,配置给 kettle 20G
mysql 部署在本地内网虚拟机,分配 4 核心,32G 内存
公司带宽 100m
想问问大家 kettle 除了调整内存使用外还有什么参数可以设置
1 p216085 2018-03-02 10:43:16 +08:00 单表 7000 的话还可以啊~ |
2 p216085 2018-03-02 10:44:09 +08:00 如果是总共 7000 的话~需要具体分析~ |
![]() | 3 Martin9 2018-03-02 11:47:44 +08:00 我们公司用的是 DMExpress,搜了一圈好像都没别的在用,碰到 bug 很绝望 |
![]() | 4 twtiyb 2018-03-02 12:42:01 +08:00 只是做传输,你看下 datax |
![]() | 5 SlipStupig 2018-03-02 12:55:05 +08:00 kettle 本身速度一般,除了改内存以外可以改一下 GC 算法比如用 G1gc, 用 jvm server 模式,然后再就是改 Mysql 和 MSSQL 的配置,eg:mysql 可以修改线程池写入线程数 |
6 haiyang5210 2018-03-02 19:11:43 +08:00 单表能破万么 |
7 buliugu 2018-03-03 11:19:08 +08:00 https://github.com/dmtolpeko/sqlines 这个跑出过 4w qps |