
主题总数 192 < href="/feed/localllm.xml" target="_blank">

这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
![]() | 有在生产上跑私有化 DeepSeek 70B 大模型的吗?什么配置的机器支持?并发多少呢? yiyiniu 174 天前 最后回复来自 coefuqin | 2 |
![]() | 跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好? kisshere 177 天前 最后回复来自 egen | 9 |
![]() | 使用 dify 时代码如何管理? frankyzf 69 天前 最后回复来自 ericguo | 8 |
![]() | 想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置 limatrix81 184 天前 最后回复来自 coefuqin | 28 |
本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样 paranoiagu 185 天前 最后回复来自 tool3d | 7 |
![]() | 打算用 AI 来做企业知识库,最佳的组合是什么? xubingok 27 天前 最后回复来自 GavinY | 20 |
![]() | 单卡 2080ti 22gb 装机其他怎么配啊 NoahBishop 189 天前 最后回复来自 NoahBishop | 8 |
![]() | 本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意 MHPSY 190 天前 最后回复来自 tomczhen | 1 |
![]() | 本地 AI 工作站装机 fcten 190 天前 最后回复来自 coefuqin | 17 |
![]() | mcp 支持力度探讨 nl101531 192 天前 最后回复来自 nl101531 | 4 |
![]() | 100+全语种翻译 , 海量翻译数据,并且有速度要求。 有什么经济实惠的本地 LLM 方案么? zzNaLOGIC | 11 |
请教模型部署和管理的问题 Legman 194 天前 最后回复来自 Legman | 4 |
![]() | ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教 crac 191 天前 最后回复来自 crac | 6 |
通过 dify 搭建了基于企业内部知识库的问答机器人,但是效果非常差 maoqiucute 112 天前 最后回复来自 cshaptx4869 | 15 |
![]() | 本地部署 LLM 并启用网络搜索,有什么现成的方案吗? villivateur 198 天前 最后回复来自 coefuqin | 5 |
![]() | Deepseek R1 671B 本地部署方案 mcsddjyd 165 天前 最后回复来自 businessch | 15 |
无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流) Daybyedream 197 天前 最后回复来自 Daybyedream | 4 |
跑 AI 模型,显卡的购买咨询 xiniu 201 天前 最后回复来自 Foxii | 23 |
半个小时前, ollama 上线了目前单显卡里,最强的中小模型 gemma3 tool3d 152 天前 最后回复来自 mizuhashi | 51 |