1 Meteora626 246 天前 官网的就 671 ,直接调 api 就知道差距了 |
![]() | 2 AlohaV2 246 天前 Mac Studio 192G 万万没想到自己也成为性价比之选 |
![]() | 3 qxmqh 246 天前 本地勉强部署了 14b,别的跑不了。太慢了。完全体硬件要求太高了。 |
![]() | 4 huluhulu 246 天前 差距非常大,R1 很强,用过 R1 已经不想用其它 API 了 |
![]() | 5 Solix 246 天前 富哥也部署不起,全球能部署的就那么几家 |
![]() | 6 Liftman 246 天前 这俩就。。不是一个东西。。。既不在一个年代。也不是一个量级。模型的能力不是只看后面几个 b 。 |
7 securityCoding 246 天前 官网不就是满血版。。。 |
![]() | 8 cat 246 天前 好奇 671b 满血版需要什么硬件才能跑得动?只满足一个人使用 |
![]() | 12 azhangbing 246 天前 @cat h200 20GB 4b 六张 h100 应该够 可能要两百多万 404g 好像 这样的话就需要 21 张 H200 em 太贵了 |
![]() | 13 cat 246 天前 @azhangbing 被 V2EX 自动加了空格后完全看不懂你的断句了… |
![]() | 14 azhangbing 246 天前 ![]() @cat #13 671b 全量应该是 404G H200 20GB 版本 ,需要 21 张吧 一张你算他 20 万 也要 420 万,实际不止 美国禁令限制到中国的显卡 运过来要花费更多 |
![]() | 15 nagisaushio 246 天前 via Android 用 8*3090 跑了 1.58 bit 的 671b 版,跑到 10toks/s ,感觉生成质量基本没有下降 |
![]() | 16 mingtdlb 245 天前 @nagisaushio 是 ollama 的那个么? https://ollama.com/library/deepseek-r1:671b |
![]() | 17 nagisaushio 245 天前 ![]() |
18 zhongdenny 245 天前 @nagisaushio 你是用 ollama 还是 llama.cpp 来运行的? 我用了 2.22bit 的版本,llama.cpp ,8 卡 4090 ,跑到 3 token/s 。 |
![]() | 19 nagisaushio 244 天前 via Android @zhongdenny 我是 1.58bit ,llama.cpp ,8 卡 3090 ,10tok/s |