
1 ldyisbest 2023-04-21 11:07:18 +08:00 |
2 conhost 2023-04-21 11:08:52 +08:00 你要问能不能?那肯定是能,torch 支持 ROCM ,但是里面有多少坑,你得自己试一试。如果有结果了,cue 我一下。 |
3 westoy 2023-04-21 11:11:25 +08:00 生态怎么办? 填坑的人工成本可比卡贵多了 之前 30 系刚出那会儿 torch 和 tensorflow 对新版的 cuda 库支持不好, 期间很多炼丹佬都是直接去买 20 系的, 搞的一些丐的 3090 破发跌到一万内, 还好有矿佬接盘给老黄盘活了流水 |
4 neteroster 2023-04-21 11:17:44 +08:00 via Android 别给自己挖坑,到时候省下的那点钱可能相对多耗费的时间和精力不值一提。 |
5 bridge255 2023-04-21 11:24:23 +08:00 如果 ai 画图的话 可以。我用我手头的 5700 跑 Stable-Diffusion 是能画的(能推理,训练不太行)。踩坑记录可以去我博客看看: https://ryan255.ltd/tag/stable-diffusion/ 目前遇到的比较多的问题是很多不错的插件都是基于 cuda 写的,所以 a 卡没有,很多优秀的插件无法兼容,这个无解。出图效率玩玩而已还能接受,真打算大规模出图或者训练还是老老实实买 4070 、4090 |
6 formant 2023-04-21 11:25:38 +08:00 谁有那闲工夫。。。这不是扯淡呢 |
7 Juszoe 2023-04-21 11:44:29 +08:00 我只能说,欢迎给 A 卡生态添砖加瓦 |
8 alne 2023-04-21 11:52:27 +08:00 可,但坑多 |
9 deorth 2023-04-21 14:43:50 +08:00 via Android rocm 声称要支持 windows 了,pytorch 2.0 也号称是解绑硬件平台。只能说是日子一天天好起来? |
10 paradoxie 2023-04-21 15:13:05 +08:00 A 卡的黑果还行,能玩 |
11 SonnyBoi 2023-04-21 17:26:14 +08:00 半年前买新电脑我也问过哈哈哈,最后还是老实买了 3070 ,如果你是个人用户确实 N 卡体验好很多,而且就算是连集群,大部分也是 N 卡,在自己电脑上花时间得到的经验和知识可以比较轻松的转移。 |
12 ysc3839 2023-04-21 17:45:26 +08:00 via Android 得看人工成本高还是硬件成本高。 目前我听说用 ROCm 的都是些大厂,为了降低硬件成本选择 A 卡,人家有顶级研发团队,不管怎样人工成本都是减不了的,所以就让他们的团队适配 ROCm 。 如果是个人用户,可能自己研究解决 bug 会消耗更多时间精力,得不偿失。 |