最新用 socket.io 写了个小程序,用递归每秒刷新一次数据库,并把读出来的数据 emit 到前端,前端有审核功能,点击后 remove 掉,然后更新数据库,现在出现了一个问题,程序运行一天之后,就会变得非常卡,一看服务器宽带的使用非常高,请教大神,会是什么原因呢
![]() | 1 tinytin 2017-06-19 12:28:04 +08:00 via iPhone 万能重启进程大法 |
![]() | 2 learnshare 2017-06-19 12:55:10 +08:00 用递归每秒刷新一次数据库,不是这里的问题? |
![]() | 3 robinlovemaggie 2017-06-19 12:56:34 +08:00 问题可能出在递归上 |
4 smallX 2017-06-19 13:03:36 +08:00 不会是每个连接 都 递归每秒刷新一次数据库,并把读出来的数据 emit 到前端 。。。 |
![]() | 5 awanabe 2017-06-19 13:07:09 +08:00 没有释放数据库链接? 看下连接池呢 |
![]() | 6 qfdk PRO 你 f12 看一下 console 那边打了多少的 log.... 是那边的问题 |
![]() | 8 NaVient 2017-06-19 13:46:09 +08:00 socket 不就是为了让你不用每秒刷新吗 |
![]() | 9 POPOEVER 2017-06-19 13:53:08 +08:00 websocket 是长连接啊,每秒刷一次是什么目的? |
![]() | 10 solee 2017-06-19 14:07:59 +08:00 websocket 就是为了解决你轮询的问题,长连接你直接 emit 就好。 |
11 xiyan OP 感谢各位大神回复,我需要每秒往前端推送一次数据,需要读取数据库的新数据,实现的方式不正确吗 |
12 liujin834 2017-06-19 14:48:03 +08:00 @xiyan 数据库里的新数据是哪里来的?我觉得你这个设计可能是有点欠缺的。提供 3 点建议: 1. 在更新数据的地方提供一个事件或者其它方式的触发功能,一旦触发直接 socket emit 消息,不用一直去扫数据库。 2. 如果更新数据库的操作是其他语言写的,可以试试 Rabbit MQ 列队,这是数据量大的方案。如果是 Postgresql,可以写一个 python 的函数作为触发器,python 有 socket emit 可以用,这是数据量小的方案。 3. 检查 web socket 的前后端代码,已经下线的用户要及时释放 socket 资源,否则虽然前端用户已下线,但是服务器上可能还在一直尝试 emit。 |