
#RTX5090 发布了,个人汇总了从 GTX1080 到最新一代的性能/美元、性能/瓦特的图表。结论:一分钱一分货 + 性能在加速 + 性价比在提升。推论:基于中小等模型(几十到几百 B 参数)的桌面/手机 AI 也就 2 ~ 3 年的事儿了。
| GPU | AI TOPS | TGP(W) | 首发价格($) | 性能/瓦特 (TOPS/W) | 性能/美元 (TOPS/$) |
|---|---|---|---|---|---|
| GTX1080 | 9.0 | 180 | 599 | 9.0 / 180 = 0.050 | 9.0 / 599 ≈ 0.015 |
| RTX2080 | 84.8 | 215 | 699 | 84.8 / 215 ≈ 0.394 | 84.8 / 699 ≈ 0.121 |
| RTX3090 | 284.7 | 350 | 1,499 | 284.7 / 350 ≈ 0.813 | 284.7 / 1499 ≈ 0.190 |
| RTX4090 | 1321.2 | 450 | 1,599 | 1321.2 / 450 ≈ 2.936 | 1321.2 / 1599 ≈ 0.826 |
| RTX5090 | 3352 | 575 | 1,999 | 3352 / 575 ≈ 5.825 | 3352 / 1999 ≈ 1.676 |
[img]https://i.imgur.com/Vy1gvo4.jpeg[/img]
1 yoiteshaw 342 天前 我记得如果不差钱,顶配 90 一直是性价比最高的吧?但是账不能那么算,对于个人 PC 用户而言,很少会需要那么大的算力,溢出太多也是一种低性价比的行为。 |
2 herozhang OP 不知道如何插入图片,就这样吧。。。 |
3 Remember 342 天前 4090 是 int8 ,5090 是 int4 ,要/2 =1676. 制程没进步怎么可能每瓦性能翻倍? |
4 Pil0tXia 342 天前 别光做 AI TOPS 嘛,来点儿游戏玩家需要的 3D 的,把 60 70 80 铺全,感谢数量至少翻一倍 |
5 privater 342 天前 换个思路:既然老黄随心所欲扇用户耳刮子都能赚更多的钱,从 3080 开始,你就该只买 NVDA ,靠每年的利润来免费拿显卡。 |
6 CodeAllen 342 天前 显卡的光栅性能是相对基础的,从 20 开始,推出的 DLSS 用某种投机取巧的思路解决了光栅性能跟不上的问题,以前性能不足都是要 SLI 或 CrossFire 才能把帧数搞上去,现在就靠 DLSS 调参数了,也不能说不是进步,起码把游戏多卡互联的需求砍掉了。 |
7 chengxiao 342 天前 哎 游戏党感觉无所吊谓了,最近几年大作一个比一个屎,反而一些不吃显卡的游戏好玩的不得了 一块儿 4090 买了 2 年 多了 95%的时间负载不到 30% |
8 xz410236056 342 天前 搞 AI 那肯定越来越强,玩游戏那性价比是一代不如一代,越来越贵。 |
9 xz410236056 342 天前 @chengxiao 听说 25 年 gta6 |
10 abc0123xyz 342 天前 @xz410236056 #9 pc 等等吧 |
11 xz410236056 342 天前 @abc0123xyz 据说全平台同步 |
12 privater 341 天前 @CodeAllen 你用过 SLI 就知道,这里面 bug 山一样高,只有跑 benchmark 能几乎发挥 1 + 1 = 2 的性能,绝大部分时间是新游戏没有任何兼容,1/3 概率这游戏引擎能兼容 SLI ,半年后才给个 profile ,性能也就提升 30-50%,能提升到 70% 都是烧高香了,更别提引入的延迟和画面撕裂问题。幸好现在两家把这个垃圾给毙了,才有了如今相对合理的 g-sync 解决画面撕裂,reflex 解决渲染延迟等等一系列进步。 |
13 tool2dx 341 天前 你要看浮点计算能力(单精度) 5090 - 104.8 TFLOPS (575 W) 4090 - 82.58 TFLOPS (450 W) 每瓦特算力: 0.182 vs 0.183 ,还退步了。 |