
1 xstress 4 天前 codex 、cc 这类的模型聪明啊,本地部署的参数不够多啊 |
2 codehz 4 天前 本地模型上下文你能开多少呢,64k ? agent 起码 128k 起跳才有价值 |
3 ahu 4 天前 qwen3-coder:480b-cloud |
4 iorilu 4 天前 你用 ollama 什么模型呢, 本地能跑得起得吗, 别说你有 512G 内存能跑 deepseek 满血版 |
6 sampeng 4 天前 你本地 ollama+zed 。能 200k 上下文跑一整天再来说比 agent 性价比高的话。顶配 mac 不在讨论范围内 |
7 YanSeven 4 天前 至少得说说场景,如果只是 zed 补全和简单问答这种场景,那确实。 |
8 Alias4ck 4 天前 没吃过细糠 |
9 musi 4 天前 你买这个设备的价格和电费够我用顶流模型用到退休了吧 |
10 wupeaking 4 天前 zed+Google 的 gemini 3pro 用起来很爽。 虽然 zed 有一堆 bug ,但是它的 agent 加上支持集成目前各种 agent 的功能就能让我一直用下去。 |
11 ASHYWHISPER 4 天前 zed + github copilot 非常好用 |
14 iyaozhen 4 天前 ollama cloud 还是本地,本地模型那响应速度怎么搞。而且 Mac 共用内存,本来就不够,swap 后卡得要死 |
15 tlerbao 4 天前 有点逗乐 |
16 dimlau 4 天前 对我而言 ollama 的作用是让笔记本风扇别闲着…… 16b 模型 32k 上下文到顶了已经 ( |