美智:AI模型每7月能力翻倍 失控恐瓦解民主
美智METR布告指出,大言模型每7月能力翻倍,超摩定律速度。研究估,到2030年,模型花小即能完成人1月工作;而失非最糟情,若展失控,恐致科技裁、政、瓦解民主制度。
加州柏克智「模型估威研究」(Model Evaluation & Threat Research, METR)日前布告指出,大言模型(LLM)能力呈指型成,每7月翻倍,超摩定律(指晶片上可容的晶密度,每18至24月便增加1倍)。
根METR研究,倘若的持下去,到了2030年初,人工智慧(AI)小便能任人花1月才能完成的任。
全球深具威性的科技和工程刊物IEEE SpectrumMETR研究人奇尼蒙(Megan Kinniment),2日刊文指出,大言模型(LLM)能力呈指型成。
奇尼蒙表示,自己原先料到果呈指型成。她一步述,「1月」是指167小,也就是人每月投入的工作,目前模型成功完成任的可靠性率50%。
奇尼蒙分析,就的果看,AI面上的或有想中得烈,但足以加速AI自身研,形成AI打造AI,致AI能力快速展。如此一,人的控制得更加困,全世界都面巨大的力。
最先AI可能的,奇尼蒙指出,不是的失潮,有更深的社和政治瓦解;倘若乎所有人都失,或者所有工作都不再需要人行,「你可能也不需要人持作,或者只需要少人作。」
奇尼蒙表示,「的情某人或某更容易政或。」
另外一是,如果有一大批似天才的AI被集中在某料中心,有它的人得其大。一旦的智慧被用生事,那力很可能被高度集中,「甚至致民主制度瓦解」。
被到AI是否有「意」,奇尼蒙表示,假AI具某意,其也不是什荒的想法,竟它得非常明、智能高。
由於大言模型主要出文字,品衡量,其表行估相不易,METR研究人替模型安排程度不一的任,察模型完成任的可靠性,得出上述果。
加州柏克智「模型估威研究」(Model Evaluation & Threat Research, METR)日前布告指出,大言模型(LLM)能力呈指型成,每7月翻倍,超摩定律(指晶片上可容的晶密度,每18至24月便增加1倍)。
根METR研究,倘若的持下去,到了2030年初,人工智慧(AI)小便能任人花1月才能完成的任。
全球深具威性的科技和工程刊物IEEE SpectrumMETR研究人奇尼蒙(Megan Kinniment),2日刊文指出,大言模型(LLM)能力呈指型成。
奇尼蒙表示,自己原先料到果呈指型成。她一步述,「1月」是指167小,也就是人每月投入的工作,目前模型成功完成任的可靠性率50%。
奇尼蒙分析,就的果看,AI面上的或有想中得烈,但足以加速AI自身研,形成AI打造AI,致AI能力快速展。如此一,人的控制得更加困,全世界都面巨大的力。
最先AI可能的,奇尼蒙指出,不是的失潮,有更深的社和政治瓦解;倘若乎所有人都失,或者所有工作都不再需要人行,「你可能也不需要人持作,或者只需要少人作。」
奇尼蒙表示,「的情某人或某更容易政或。」
另外一是,如果有一大批似天才的AI被集中在某料中心,有它的人得其大。一旦的智慧被用生事,那力很可能被高度集中,「甚至致民主制度瓦解」。
被到AI是否有「意」,奇尼蒙表示,假AI具某意,其也不是什荒的想法,竟它得非常明、智能高。
由於大言模型主要出文字,品衡量,其表行估相不易,METR研究人替模型安排程度不一的任,察模型完成任的可靠性,得出上述果。
- 者:中央社者欣瑜金山3日
- 更多科技新 »