说下详细描述吧,比如一个参与记录表,可以通过一次聚合获取 A 用户参与了多少次,如何在第一次的聚合结果上再次聚合,得出参与多少次的有多少人这种结果???有尝试过 es 去实现,发现 es 桶聚合分页也不支持,更不谈这种对聚合结果聚合的操作,有 es 大佬知道这种操作可以指点一波。谢谢
![]() | 1 hbsfxlz OP 人工自顶一波 |
![]() | 2 hbsfxlz OP 为什么在首页看不到帖呢 |
![]() | 3 sunchen 2018-03-13 10:15:42 +08:00 mpp 随便选一个 |
![]() | 5 enenaaa 2018-03-13 10:20:01 +08:00 pandas 可以实现。但不太适合线上处理。 |
![]() | 6 EmdeBoas 2018-03-13 10:20:23 +08:00 kylin 了解一下,是离线预计算,而且很不轻量...速度还是 ok 的 |
![]() | 7 hbsfxlz OP |
8 ConradG 2018-03-13 10:30:19 +08:00 千万还要秒级,安心流式计算搞起 |
9 jyf 2018-03-13 10:34:23 +08:00 哈 你也踩到 es 的坑啦 这个数量级随便用啥了 只是别有这种坑就行 |
![]() | 10 hbsfxlz OP |
![]() | 11 jasonslyvia 2018-03-13 10:40:23 +08:00 druid.io 看看 |
![]() | 12 EmdeBoas 2018-03-13 10:46:45 +08:00 我还是详细说一下 kylin 吧,免得你掉坑里....这个速度很快(因为是预计算),所以倒不怕数据量,(百亿级数据秒出,我刚去线上试的...),但是由于是预计算,随着你聚合维度的增加,数据量会指数级的膨胀!再一个,这东西搭起来和维护可是不轻松的..... |
![]() | 14 fireapp 2018-03-13 11:13:20 +08:00 via Android kudu + impala 直接撸 sql, 千万级别秒级没问题 |
![]() | 15 zhengxiaowai 2018-03-13 11:16:57 +08:00 spark 不错 |
![]() | 16 BeginMan 2018-03-13 13:17:18 +08:00 ![]() druid 做计算引擎,superset 做 BI。 |