用的 mysql 数据库,有时候做业务,动不动产品就会说,这个字段我要模糊搜索。 实在不想大费周章,直接用的 like ,前期还好,到了后面跑不动,还有没有其他低成本的替代方案?
![]() | 1 danbai PRO 最近刚好用到了一个搜索引擎,https://www.meilisearch.com/ |
2 Jooooooooo 2022-05-26 17:45:42 +08:00 搞个 es 吧 |
3 brader OP @Jooooooooo 成本太高了啊,要知道,我们一个后台列表页的需求,按小时算的,就给 2-3 小时工时,去折腾 es ,绩效做不出来 |
![]() | 4 SjwNo1 2022-05-26 17:48:41 +08:00 mysql ngram |
![]() | 5 Red998 2022-05-26 17:50:48 +08:00 like 的话使用前缀索引好点 、 |
6 Jooooooooo 2022-05-26 17:52:32 +08:00 @brader 那只有改需求一个法子了. 比如只搜一段时间内的, 数据会少点. |
![]() | 7 ragnaroks 2022-05-26 17:52:57 +08:00 只读从库 |
8 brader OP @redorblacck886 产品不让,就是要模糊搜索效果 |
9 liaohongxing 2022-05-26 17:54:15 +08:00 mysql ngram 全文,最方便的了 |
10 brader OP @liaohongxing 这个好像方便,如果我用自带的全文索引,不装 ngram 这个插件,模糊查找会出什么问题吗? |
![]() | 11 pengtdyd 2022-05-26 17:56:19 +08:00 需求评审没人提这个问题 ??? |
12 liaohongxing 2022-05-26 17:57:07 +08:00 大哥 ngram 是 mysq8 内置插件。都不需要装 ,支持中文 ,简单几下就配起来的。不想麻烦,就这个最简单 。比 like 强一点 |
![]() | 14 encro 2022-05-26 17:58:14 +08:00 ![]() |
15 brader OP @liaohongxing 8 好遥远啊,我们还是 5.6 还是 5.7 来着 |
![]() | 16 wellerman 2022-05-26 18:01:06 +08:00 简单点就用空间换时间,提取关键词(或全部分词),弄个索引。再顶不住了就只有上 ES 了。 |
![]() | 17 MoYi123 2022-05-26 18:03:25 +08:00 换 pg,用 gin 索引 |
![]() | 18 cowwa 2022-05-26 18:10:56 +08:00 搞个 Redi 缓存起来 |
19 teel 2022-05-26 18:12:29 +08:00 via iPhone 如果数据量不是特别大的话,把列表内需要搜索的字段全部拉取到前端用 Fuse.js 做模糊搜索。前提是数据量不能太大。 PS:不让开发评估时间的公司还是尽早走吧 |
![]() | 20 dzdh 2022-05-26 18:16:31 +08:00 刚在隔壁帖子里看到了个 zinc https://github.com/zinclabs/zinc 已经在自己的小机器上跑起来了。 meilisearch 自己测试了 1kw 数据服务器内存撑不住了。 要长治久安就用 postgresql 吧,装个 zhparser 还能指定分词和词库。 |
![]() | 21 sadfQED2 2022-05-26 18:19:06 +08:00 via Android ![]() 5.6 5.7 的 mysql ,不用 es ,不用 like ,那你手动拆词,然后在 mysql 里面建一张表当倒排索引?相当于用 mysql 实现一个简易版的 es 不然的话就找那些奇奇怪怪的 mysql 插件或者存储引擎?但是这种稳定性就不敢保证了 最后,人和代码有一个能跑就行,没有需求评审,也没有技术评审,上线时间拍脑袋决定,我觉得该你跑了 |
![]() | 22 Latin 2022-05-26 18:19:34 +08:00 上个 elasticsearch 解君忧 |
![]() | 23 3kkkk 2022-05-26 18:23:41 +08:00 如果没用过,上面哪种方案用到生产都不是几个小时搞定的。 让产品需求做技术调研,不给时间就让他们自己搞你把上面方案给罗列了。 |
![]() | 24 Buges 2022-05-26 18:24:04 +08:00 via Android 当然是 meilisearch ,简单轻量,适合小规模数据。 |
![]() | 25 clf 2022-05-26 18:25:05 +08:00 搜索的时候加上数据量限制?不返回有多少条符合结果的 total 。 前缀搜索的效率会高很多,能走索引。 |
![]() | 26 documentzhangx66 2022-05-26 18:37:35 +08:00 模糊搜索本来就是个成本高上天的事情,其成本比分词方案还要高,所以你这出发点就不对。 你只能采用 有限度的分词 + 主动缓存 + 控制频次的方式,来降低成本,这种思路类似于剪枝,但仍然有一定成本。 |
27 zamaojava 2022-05-26 18:42:16 +08:00 不直接 run 吗,兄弟,我上家就是给我 精确 crud ,老子直接不干了 |
![]() | 28 monkeyWie 2022-05-26 18:52:51 +08:00 上 es 分词也难搞定,例如搜索一个字的时候 |
29 nox42 2022-05-26 19:09:31 +08:00 lucene |
![]() | 30 yufeng0681 2022-05-26 21:26:35 +08:00 ![]() 产品要快速出效果,3 小时的编码, 就只能用 like ,解决业务功能有无的问题; 和项目经理说,后续肯定有性能问题,要解决就得技术 leader 上方案,给你们写业务代码的人用,或者单独给时间做这个性能需求。 至于做不做,那就是项目经理决定。 |
31 makdon 2022-05-26 22:03:36 +08:00 看起来开发地位非常工具人呐,代码跟人有一个能跑就行 |
![]() | 32 westoy 2022-05-26 22:05:11 +08:00 跑不动再说吧, like 至少能找到啊.....你分词+fulltext 调教不好, 很多词分错了找都找不到, 更麻烦....... |
![]() | 33 marcojbk 2022-05-26 23:34:38 +08:00 via iPhone 我其实有点没明白你说到了后面跑不动是什么意思,是说查询速度太慢,还是说无法实现比如多词中间加空格搜索的需求? |
36 brader OP @marcojbk 用 Like 功能是完全对的,就是数据量多起来了,查询非常慢,我记得那个表,涨到 50 万,就不怎么查的动了 |
nbsp; 37 meystack 2022-05-27 10:23:12 +08:00 直接上 ES 或者迅搜,我有写好的类,在我开源的项目 swiftadmin 你在 fork 里面找下之前的备份,可以分分钟使用了,如不是很复杂,建议使用迅搜即可 |
38 tickone 2022-05-27 13:23:08 +08:00 可以试试这样查,扫描 name 索引,不是全表扫描,稍微好一点 select * from table where id in ( select id from table where name like '%哈哈%' ) |
![]() | 39 markgor 2022-05-27 14:24:47 +08:00 这情况,不是应该转移问题吗...? 前端增加 “等于”/“包含” 让用户选择,当使用包含慢的时候,说这是特性,嫌慢就用等于来筛选;或者搭建 ES 服务.... 让产品自己选择 |
41 aikilan 2022-05-27 16:05:18 +08:00 你就在群里告诉产品这样会越来越慢呗,产品要是没意见,后果他就自己承担。 |
![]() | 42 Features 2022-05-27 16:07:21 +08:00 啊? 老版 discuz 不是有完善的方案吗? 1.限制字数 2.限制搜索频率 3.必须登录后搜索 还有很多我都忘记了 |
![]() | 43 zhangwugui 2022-05-27 16:08:21 +08:00 mysql5.7 的 ngram 尝试过,我记得是有点问题的: 1 )有些高频数据可能搜不到; 2 )搜索时间可能时快时慢, 3 )查询条件过长,还可能触发 cache limit ; |
![]() | 44 raptor 2022-05-27 16:09:26 +08:00 30 楼正解,得让产品知道每个需求都是有成本的,实现模糊查询是一个成本,实现高性能的模糊查询是另一个成本。 |
![]() | 45 hatsuyuki 2022-05-27 16:10:40 +08:00 小规模数据 meilisearch 最合适,性能高,消耗少 |
![]() | 46 dog82 2022-05-27 16:59:31 +08:00 这个帖子有营养,大家思路好广 |
47 donfisher 2022-05-27 17:03:03 +08:00 1. mysql 做全文索引 2. 果断上 es |
48 brader OP @meystack 请问下你这个迅搜项目,可以有自带组件解决 mysql 表数据的全量同步和增量同步的增删改 同步方案吗?还是要自己通过代码进行推送 |
49 meystack 2022-05-27 18:21:57 +08:00 @brader 那没有,如果需要同步的话,有两种方案 1 、在 PHP 读写的时候,如果有更新可以直接更新迅搜的数据,如果有并发的话就做队列 2 、自己写 C 扩展去实现,xunsearch 其实就是监听了两个端口,只需要投递和查询相应的数据就行了, 如果你们技术那边没问题,可以使用 mysql 类似的同步工具,自定义数据结构转换成 XS 对应的东西进行投递更新就行了 这样可以脱离 PHP ;保持 mysql 同步 |
![]() | 50 Saxton 2022-05-27 23:08:46 +08:00 小公司不要上 ES ,你确定公司能给你提供好的服务器资源?,到头来资源不够还天天炸,meilisearch 也可以考虑下,如果真想在压低成本就像楼上说的只读从库,也可以考虑 mysql 的分词,虽然不咋样但勉强可以满足需求。 |
![]() | 51 heyjei 2022-05-28 10:36:26 +08:00 ![]() 当年用 PHP 搞论坛的时候,那时还没有 ES ,分词也没有这么方便。 PHPBB 有一个骚操作叫基于二分分词的倒排索引,不管是搜索的准确性和速度,效果都很不错。特别适合你这种情况。 思路就是把一篇文章的按两两分词插入到另外一张倒排索引表,然后搜的时候,把搜索词也二分分词,去查那张倒排表。 两两分词的意思就是:当年用 PHP 搞论坛的时候 可以分词为:当年、年用、用 P 、PH 、HP 、P 搞、搞论、论坛、坛的、的时、时候。 适合这种文章的数量比较少的情况。 |
![]() | 52 zhangwugui 2022-06-01 10:27:05 +08:00 @heyjei 这个之前尝试过,这种方式是 分词+倒排索引,最后两张表进行关联,我最近进行测试,发现这种有三个小问题: 1 )分词表会很大; 2 )单个汉字进行搜索有问题(可以从产品端避免) 3 )文章内容有回文的情况查询会有问题; 中国商标专利事务所有限公司务专 搜:"专利事务", 查询过滤为:IN ('专利','利事','事务'),能正常搜出来; 搜:"事务专利", 查询过滤为:IN ('事务','务专','专利'),也能搜出来,但正常是搜不到这条数据; |
![]() | 53 heyjei 2022-06-01 23:02:39 +08:00 |