
主题总数 192 < href="/feed/localllm.xml" target="_blank">

这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
gemma2 2B 一键整合包(2.3G),能力超过 gpt3.5, cpu 也能跑得飞快 mumbler 352 天前 最后回复来自 Pepsigold | 7 |
mac mini 24g 大模型推理怎么样 ChipWat 2024-08-14 21:51:51 +08:00 最后回复来自 xing7673 | 27 |
关于在本地部署开源模型的一些问题请教 ddvswgg 2024-08-13 17:42:35 +08:00 最后回复来自 CynicalRose | 9 |
![]() | intel mbp 有办法用 gpu 给 ollama 提速吗 Vitta 2024-08-13 11:58:35 +08:00 最后回复来自 Vitta | 6 |
win&mac 下开箱即用的本地大模型+知识库,支持数十种开源模型 mumbler 2024-08-28 08:46:50 +08:00 最后回复来自 mumbler | 18 |
ollama 本地模型 GPU 跑不满 CNYoki 2024-07-24 15:03:17 +08:00 最后回复来自 clemente | 12 |
![]() | Tesla V100-DGXS-32GB 这张卡能用来跑 ollama 或者 vllm 不? idblife 2024-09-25 16:26:03 +08:00 最后回复来自 woscaizi | 2 |
![]() | 本地跑 sd 和 local llm 推理, 什么显卡性价比最高? cinlen 2024-07-01 11:02:47 +08:00 最后回复来自 crackidz | 38 |
分享一下自己训练的大模型 Azure99 273 天前 最后回复来自 ibox163 | 54 |
![]() | 求推荐能同时链接 chatgpt 和 ollama 的 webui qweruiop 2024-07-18 14:20:32 +08:00 最后回复来自 kangfenmao | 3 |
![]() | 有什么高性价比的开源大模型体验和生产部署服务 wencan 2024-06-11 10:40:44 +08:00 最后回复来自 bkdlee | 7 |
支持不同显存显卡的推理加速框架 whyorwhynot 2024-05-30 18:15:45 +08:00 最后回复来自 whyorwhynot | 4 |
![]() | 使用 llama3:70b 本地化部署, 100 人左右的并发,大概需要多少块 4090 才能满足? leeum 2024-07-09 15:12:38 +08:00 最后回复来自 keakon | 52 |
![]() | 现在买 3090TI 玩 AI 靠谱吗 Tuatara 2024-05-24 05:35:42 +08:00 最后回复来自 glouhao | 91 |
请教各位,开源的 AI 模型需要什么样配置的机器?比如图像类啊大语言模型啊语音类啊都想玩玩 fushall 2024-05-16 14:28:29 +08:00 最后回复来自 AlexHsu | 14 |
![]() | 大佬们,求助本地部署大模型 jjyyryxdxhpyy 301 天前 最后回复来自 skykk1op | 39 |
![]() | 折腾 Llama3 跑在 NAS...结果确实一言难尽 CoffeeLeak 2024-05-04 13:51:26 +08:00 最后回复来自 lchynn | 6 |
![]() | llama 3 发布了,我感觉挺猛的... t41372 2024-07-24 19:35:54 +08:00 最后回复来自 kangfenmao | 12 |
ollama run 报错请教大佬 xmtpw 2024-08-21 17:27:18 +08:00 最后回复来自 finalsatan | 4 |