This topic created in 123 days ago, the information mentioned may be changed or developed.
1. 如果是 LLM 原理机制本身的问题,就是同一个部署上的模型越用越蠢,那没办法。
2. 如果是厂商做了动作,为了成本降低,让 LLM 降智,那用户也没办法。
3. 有说法是机场的 ip 太脏,算是一种触发了厂商的“风控策略”,仅针对该 ip 的请求降智。
那么,在这种情况下,有哪些解决方案,购买海外 vps ,在 vps 上使用可解吗。
4 replies 2026-01-09 17:15:01 +08:00  | | 2 Muniesa Jan 9 得有家庭宽带的 ip 吧,vps 的 ip 也容易触发风控 |
 | | 3 111111111111 Jan 9 看过一个文章,出处和细节忘记了 大意是:同样的模型,不同配置、不同部署参数(比如并发量)让速度和水平表现的不一样,速度可以这个都好理解,重点是能力水平也会降低 那么就可以根据 IP 质量,把请求路由到不同的节点来提供 LLM ,得到不同的使用表现 所以 IP 脏就降智,在逻辑上我觉得是行得通的 |
 | | 4 111111111111 Jan 9 不同配置主要是指显卡(显存)的区别。 相同模型、相同量化水平,不同的并发量,影响水平 相同模型、相同量化水平,不同的可用显存,影响水平
大概就是每次对话时所用到的实际计算资源,影响本次对话的智力水平 |