
1 linap 2018-04-15 16:03:44 +08:00 via Android mysql |
2 msg7086 2018-04-15 16:55:27 +08:00 难道不是 grep ? 900M 简单过滤,10 秒钟足够了吧。 |
3 dobelee 2018-04-15 17:28:48 +08:00 via Android 文本最简单最快的 grep 了。结构化的另说。excel 就不好了。 |
4 kiwi95 2018-04-15 17:30:38 +08:00 via iPhone 行数据,grep, awk, sed 一套下来基本能搞定 |
5 liucudliucud 2018-04-15 17:47:30 +08:00 via Android 传到集群上用任务搞,9 亿行都没问题 |
6 ynyounuo 2018-04-15 18:25:22 +08:00 wc -l < OpenSubtitles2018.raw.en 441450449 rg -n -i '.*way.*to.*explore.*' OpenSubtitles2018.raw.en 12.95s user 7.14s system 97% cpu 21.308 total |
7 clino 2018-04-15 18:36:05 +08:00 via Android unqlite 可以试试 |
8 qinrui 2018-04-15 21:21:03 +08:00 via iPhone awk |
9 locktionc 2018-04-15 22:25:32 +08:00 你如果能把样本数据,你需要筛选的内容都提供一下,大家会给你更多办法。 |
10 qwertyegg 2018-04-15 23:30:23 +08:00 这不是大数据 101 的题目嘛?拆成 10 份分开弄,然后合并结果 |
11 wqzjk393 2018-04-16 00:25:05 +08:00 via iPhone 1,数据库,用 where 筛选。2,用 pandas 的 read_csv 函数,dataframe 什么不能干?………实际上我们工作接触几千万行数据,是用 hive 数据库的。其实吧,我个人觉得,只要不死机,卡就卡吧… |
12 Howlaind 2018-04-16 00:48:55 +08:00 via Android the_silver_searcher |