
主题总数 192 < href="/feed/localllm.xml" target="_blank">

这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
![]() | 离网 Centos 服务器部署 Qwen-2.5-Coder leoSup 303 天前 最后回复来自 dcdlove | 6 |
![]() | Llama 3.3 70B Livid PRO | 21 |
![]() | Qwen2.5 72B 是最好的本地代码补全模型 Leon6868 305 天前 最后回复来自 pakro888 | 15 |
关于运行 Lightrag 官方示例报错的问题 mdb 308 天前 最后回复来自 Xs0ul | 1 |
![]() | Apple 统一内存适合运行 LLM?理想很丰满,现实很骨感 hjc4869 167 天前 最后回复来自 noogler67 | 8 |
![]() | 8x4090 离线部署 Qwen2.5 求助 fid 309 天前 最后回复来自 fid | 40 |
![]() | exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验 Livid PRO | 15 |
![]() | 买丐版 Mac Mini M4 用来搭本地大模型的,是不是伪需求 yavdein 314 天前 最后回复来自 yavdein | 16 |
![]() | 各位的 m4 设备都陆续到货了,能否跑一下 ollama/llama.cpp ,看看大模型这块的算力究竟比 m1 max m2 ultra , 提升有多少? beginor 222 天前 最后回复来自 ohblue | 25 |
本地模型如何优化"大"文件? ttut 320 天前 最后回复来自 zachariahss | 1 |
![]() | 推荐一个最近很喜欢的自部署书签管理 Hoarder yir 322 天前 最后回复来自 mooyo | 1 |
mac 有什么方案本地跑 ai 字幕 Jaie 321 天前 最后回复来自 qbmiller | 9 |
![]() | 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了 ShadowPower 326 天前 最后回复来自 yanyuechuixue | 98 |
代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算? raw0xff 332 天前 最后回复来自 poorcai | 28 |
![]() | 有没有非常小型的开源 ai 项目,想根据每个账号的视频标题做分类 Joshuahui 346 天前 最后回复来自 june4 | 3 |
![]() | 求助,我笔记本的 4060 跑 语言模型很困难吗? kevan 360 天前 最后回复来自 chronos | 1 |
![]() | Meta 发布了 llama3.2,我试了一下 ollama 版本,发现这是假的 winglight2016 2024-09-28 21:34:16 +08:00 最后回复来自 yuting0501 | 14 |
![]() | 本地跑大模型代码助手还挺好用 songray 2024-09-24 11:48:03 +08:00 最后回复来自 tabc2tgacd | 6 |
Llama3.1 8B 本地部署抢先体验, win&mac 一键启动整合包,图形化界面+知识库 mumbler 230 天前 最后回复来自 yuandidi | 24 |