
最近在学 cuda, 学到分支分化这部分, 在写归约计算的实战.期间用到的 claude, gpt, gemini 全部被我骂了个狗血淋头.
Cuda 编程理解起来有点抽象, 根据教程理解的内容写的代码有点没底, 就会问问 AI 写得怎么样.
问它们我的代码有没有问题, 无论如何都能说哪里哪里有问题, 甚至强行幻觉出我没写的代码, 说那里有问题. 被我臭骂一顿后又不敢质疑了, 啥都说写得好没问题.
被 AI 误导到了奇怪的方向, 浪费了超多时间. 一直说代码有严重安全问题, 让我修改边界检查. 实际上出于教学目的, 代码是有假设的, 比如数据大小是 2 的幂. 我发给 AI 代码时, AI 会说数据大小为 600 时你这个边界计算就会出错, 边界检查改成这样就对了. 实际上如果大小为 600 的话不是边界检查, 而是整个代码都无法进行计算, 根本不是改改边界计算就能解决的问题.
冷静下来, 想下每次稍微涉及到有点研究性质的问题时 (比如需要除写代码以外的知识) AI 都会各种出错. 之前写优化矩阵乘法代码时, 写模型输出张量解析代码时, 以及涉及到一些硬件时, 最后都是放弃 AI, 自己纸上演算. 我甚至觉得 AI 这一方面到目前为止没有多少改善, 且未来很长一段时间都不会改善到能用的水平.
1 usn PRO 没人觉得 AI 越来越难用了么 |
3 wojiugaiming 18 小时 16 分钟前 via Android @usn 是越来越难用了 |
4 wnpllrzodiac 17 小时 50 分钟前 via Android 训练的量不够,可能好的模型需要冲会员或者根本不公开 |
5 Folder OP @wnpllrzodiac 我感觉问题不在于训练量, 而是 AI 很难在考虑很多条件的情况下良好地运作, 也很难活用自己会的知识. 或者说背了很多知识, 但是用不好. 更像是"机制"的问题而不是"学不好"的问题. |
6 wnpllrzodiac 6 小时 10 分钟前 via Android @Folder llm 的底层逻辑是基于概率的推断下一个,没有理解真实世界运作内核的归纳逻辑。所以现在实现方式非常笨的训练各种可能遇到的情况。而不是总结一套方法论。以应对新的未曾遇到的情况。这一点被有些 ai 探索者诟病 |