十万条以上就开始只能处理一部分而已


十万条以上就开始只能处理一部分而已

1 mdzz Mar 13, 2017 看到 grep - md5.sum 的时候楞了几秒钟 |
3 ElmerZhang Mar 13, 2017 你确定不是你的 md5.sum 一直有 append ? |
4 yiyiwa Mar 13, 2017 10 万条不至于吧! |
5 congeec Mar 13, 2017 via iPhone 这种情况下不用 cut 么? |
6 rrfeng Mar 13, 2017 从未遇到过 |
7 noark9 Mar 13, 2017 从未遇到过,你确定你的数据只是按行还是有增加,或者数据没问题,之前导数据的时候三五百万是松松的处理啊 |
8 lrz0lrz Mar 13, 2017 处理几千万行数据从没遇到过这个问题 |
9 est Mar 13, 2017 在 hdfs /hadoop stream 上跑 grep 的路过。都不是事儿~~ |
11 rogerchen Mar 13, 2017 楼主总想搞个大新闻, FSF 这些远古套件出问题的可能性几乎没有,你也不想想用户群有多大。。。 |
12 lhbc Mar 13, 2017 via iPhone 十万也算量? |
13 fxxkgw Mar 13, 2017 C 的效率对付几十万条数据还是妥妥的 |
14 chineselittleboy Mar 13, 2017 下午刚处理过三百万行的文本,几十秒 |
15 halfbloodrock Mar 14, 2017 想用 shell 处理大量文本数据的话,用 while 结合 awk , sed 。 |
16 feiyang21687 Mar 14, 2017 md5.sum...... |