主题总数 211 < href="/feed/localllm.xml" target="_blank">
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节

| 8 卡 H100 部署 DeepSeekR1 求助 zhyim 285 天前 最后回复来自 weiming | 15 |
| 公司一个台式机想作为服务器部署本地大模型,怎么在局域网使用呢 xinhaiw 278 天前 最后回复来自 cander0815 | 21 |
| 8 路 L40 部署 R1-671B 上限是多少呢 jinja27 293 天前 最后回复来自 jingzf0214 | 10 |
| LLM local 模型入门和使用/span> iv8d 98 天前 最后回复来自 miaoxiaomayi | 11 |
| 有开源的可联网搜索的 ollama UI 项目推荐吗 goashore 288 天前 最后回复来自 coefuqin | 14 |
| DIFY 这类产品会成为主流吗,交互逻辑咋这么复杂,感觉没自己写代码方便 wushenlun 293 天前 最后回复来自 ericguo | 2 |
| 各位大佬, m4mini32g 跑大模型还是 4060ti16g呀? songche 299 天前 最后回复来自 chor02 | 22 |
| 大佬们有没有基于大模型的推荐系统 demo spitfireuptown 300 天前 最后回复来自 murmur | 9 |
| ollama 如何手动下载模型? mrleft 297 天前 最后回复来自 h4ckm310n | 15 |
| 求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090 duanrancosmos 303 天前 最后回复来自 Gnihton | 6 |
| Deepseek r1 14b 很有自己的想法 lostsquirrelX 304 天前 最后回复来自 lostsquirrelX | 2 |
| 请问如何本地部署 AI 图片或视频清晰化功能? littlemis 307 天前 最后回复来自 tycholiu | 12 |
| Deepseek R1 671B 本地部署计算机硬件配置? lucien94xxx 303 天前 最后回复来自 shuimugan | 9 |
| 想让本地运行的大语言模型可联网该怎么做? raw0xff 303 天前 最后回复来自 shuimugan | 4 |
| 如何本地部署 DeepSeek-r1 模型训练自己的大模型 CodingNameless 304 天前 最后回复来自 isSamle | 13 |
| 有没有富哥实际部署了 671b 完全体 R1 的来说说跟 llama3.1:405b 的性能有多大进化 2067 309 天前 最后回复来自 nagisaushio | 19 |
| OpenBayes.com 有羊毛可薅,过年期间很多算力都直接半价了 GraceXiii 322 天前 最后回复来自 hadoop | 1 |
| 对话效果最好的 7B/1.5B 模型大家用的哪个? annoygaga 322 天前 最后回复来自 restkhz | 3 |