| RSS |

| 想折腾一个 AI 主机,请行家出手 davidyin 4h 1m ago Lastly replied by davidyin | 76 |
| 锤子找钉子的项目分享:假想企业本地部署后不用人工洗库接入 llm 的中间层。 KaiWuBOSS 1 day ago Lastly replied by yijihu | 2 |
| 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型? babymonster 3 days ago Lastly replied by 94 | 129 |
| 推荐一个 GPU 推理速度计算器, 可能方便买配件自建本地大模型的人用上 Hermitist 3 days ago Lastly replied by diudiuu | 18 |
| DGX Spark、ASUS GX10、MSI EdgeXpert 看起来都像是一个母胎的产品,用起来有差别吗? SzgSw5zGyN1iy 3 days ago Lastly replied by qazwsxkevin | 11 |
| gemma4:31b-coding-mtp-bf16 Livid PRO |
| 有适合本地跑训练 AI 的电脑配置吗? linxiaojialin 5 days ago |
| LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM zsj1029 5 days ago Lastly replied by Orangeee | 7 |
| 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气 KaiWuBOSS 3 days ago Lastly replied by KaiWuBOSS | 115 |
| github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps stefwoo 5 days ago Lastly replied by jiaorong | 10 |
| 我自己的电脑是 5070Ti,总感觉跑一些模型算力不够 babymonster 2 days ago Lastly replied by kevan | 50 |
| 请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以? ken2025 8 days ago Lastly replied by jinsongzhaocn | 5 |
| 私有化部署大模型的“终点”是 Mac 还是 Nvidia? babymonster 9 days ago Lastly replied by bobguo | 29 |
| 自己做了一款在线 GPU 推理速度计算器 TPS Calculator diudiuu 4 days ago Lastly replied by diudiuu | 12 |
| 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现 KaiWuBOSS 5 days ago Lastly replied by kevan | 107 |
| 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型 alangz 9 days ago Lastly replied by davidqw | 11 |
| 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了 Livid PRO | 15 |
| qwen3.6 27b 本地编码测试 zsj1029 9 days ago Lastly replied by zsj1029 | 62 |
| 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了 KaiWuBOSS Apr 29 Lastly replied by coefu | 29 |