![]() | 1 nxforce 172 天前 ![]() 取决于你想跑什么模型,再考虑入手什么硬件,而不是先考虑硬件。 |
![]() | 2 ihainan 172 天前 你要跑什么规模的模型,愿不愿接受量化。 |
![]() | 3 usVexMownCzar 172 天前 via iPhone 便宜的上 2080 魔改 不用显卡就买高配 Mac mini (硬盘 1T 即可,内存拉满)不到两万。可以跑 70b 的模型。 |
4 nananqujava OP @chiaf #3 看了下 2080 魔改的评测 好像不行 |
5 nananqujava OP @joyhub2140 #1 作为想入门的新手, 我也不知道 |
6 dji38838c 172 天前 业余人士没必要学,没必要自己跑 意义何在呢 |
7 nananqujava OP @dji38838c #6 好的, 那就在家睡大觉呗 |
8 fox0001 172 天前 via Android 是的,显存是优先考虑的条件。玩过 3090 ,24G 显存,性价比可以。 |
9 renmu 172 天前 via Android ![]() 云主机能玩到你腻 |
10 nananqujava OP @fox0001 #8 3090 怕买到矿卡 |
11 nananqujava OP @chiaf #3 是我侦查的不对, 2080 魔改是最便宜的方案 |
![]() | 12 tool2dx 172 天前 via Android AI 分两种,聊天和绘图,只有 llm 才对显卡性能没追求,仅仅需要大显存。 绘图需要买 30 系以上的,因为支持很重要的 bf16 浮点格式。20 系是不支持的。 |
![]() | 13 michaelzxp 172 天前 4090 48g 吧 |
![]() | 14 irrigate2554 172 天前 ![]() 2080ti 22g 真可以,我日常就跑 32B 模型,Q4_KM 量化 |
17 nananqujava OP @mumbler #15 主要是怕买到显存虚焊的, 显存很容易出问题, 虽说可以修, 但闹心 |
18 mumbler 172 天前 ![]() @nananqujava #17 买两块也远远比 3090 ,4090 便宜,没有更好选择了 |
![]() | 19 t41372 171 天前 可以租云服务器或用 api 入门,或是看你现在有什么用什么。可以从小模型入手,多玩会儿就知道你想跑的模型需要什么样的硬件了。 |
![]() | 20 rogerer 171 天前 不如买 m 芯片,显存够大 |
![]() | 21 irrigate2554 171 天前 @mumbler 昨天已经跑上了,还有 mistral-small3.1 据说也很强 |
22 Freecult 154 天前 ![]() 只是学习 AI ,弄个 NV 卡就行。无所谓内存。因为学习 AI 不等于 “用 LLM 学习 AI”,也不等于“学习 AI 应用” CNN TRANSFORMER VAE DIFFUSION 之类的想搞明白,用不着大显存。有支持 CUDA 的 12G 就绰绰有余了。6G,8G,10G 无所谓。能跑 CUDA 是必须的 数理统计和机器学习的理论掌握了, 比大显存有用得多 非要和 LLM 较劲,查一下这个: https://www.llamafactory.cn/tools/gpu-memory-estimation.html 决定跑啥模型 如果 4090 觉着贵,只有 2080 22G X2 +NVLINK 44G 跑的模型范围稍微大一些 |
23 nananqujava OP @Freecult #22 谢谢 |