
主题总数 192 < href="/feed/localllm.xml" target="_blank">

这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
![]() | 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢 littlemis 205 天前 最后回复来自 littlemis | 4 |
MacMin M4 +国补很香,想买一个内存大一点的跑 pytorch 训练是否可行 python35 195 天前 最后回复来自 hefish | 3 |
![]() | 如何估算一个大模型需要用到什么性能配置的硬件? zcm3579 204 天前 最后回复来自 ChristopherY | 16 |
![]() | A30 显卡-24G 显存,推荐部署什么大模型呢 ZimaBlueee 195 天前 最后回复来自 hefish | 8 |
![]() | 开发了个本地实时字幕 (Whisper + LLM api ) 软件,开源 xkeyC 206 天前 最后回复来自 xkeyC | 2 |
![]() | ollama 支持的一些模型测试结果 feelapi 210 天前 最后回复来自 coefuqin | 6 |
![]() | ollama 新手,求问哥哥们 2 个问题,找了好多资料还是没弄明白 ZimaBlueee 212 天前 最后回复来自 hefish | 19 |
100 多号人的企业,想自己部署 deepseek,硬件要哪些? libasten 212 天前 最后回复来自 tamshy | 5 |
![]() | 大佬们,本地使用 ollama 部署的 DeepSeek-R1-32B 在 anythingllm 中发送图片,它说它没收到,应该怎么做?才能让他帮我识别图片?实现官网那种效果 cander0815 212 天前 最后回复来自 coefuqin | 4 |
![]() | 本地部署的小模型(小于 16G 显存)适合轻任务,哪一个模型比较好用? Kinnikuman 215 天前 最后回复来自 tool2dx | 13 |
![]() | 帮忙看看这个 DIY 装机配置大模型入门怎样 song135711 209 天前 最后回复来自 coefuqin | 19 |
为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用 mili100 211 天前 最后回复来自 musi | 6 |
q4 量化的大模型能比原版全精度的差多少? jhytxy 217 天前 最后回复来自 mili100 | 2 |
![]() | 求 DeepSeekR1 性价比硬件推荐 klo424 216 天前 最后回复来自 coala | 59 |
咨询 GPU 服务器方案 Legman 218 天前 最后回复来自 tool2dx | 11 |
![]() | 大模型私有化是怎么集群部署的? mingtdlb 219 天前 最后回复来自 volvo007 | 6 |
![]() | ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全? icemanpro 220 天前 最后回复来自 mmdsun | 9 |