【瑞雄】比事件看AI音深的危

一通音息打到外外交官、州的手,他以接到了美卿可比(Marco Rubio)的,事上那只是人工智慧合成的音,一深(deepfake)的局。起事件疑揭了AI音造技在正迅速散的,政治、金融人私域都有很大的在。
根《盛》的,次音冒事件不只是的作,背後的目的是企操政府高、取敏感或取得密存取限。然尚示受害官真的被,但以AI音行社交工程攻的方式,正得越越普遍,也越越真可怕。
在技面上,如今需15到30秒的音本,便可透一些AI工具出可真的音。些工具原本用途包括助障者、生成有容等正面功能,也不法份子打了可乘之。只要你曾在TikTok或YouTube上短影片、接受音,甚至接未知,你的音料就有可能被取、用於。
已不再停留在理次。根一查,2025年上半年深有的事件高580起,乎是2024全年量的四倍,造成的失更4美元之。而中最常的手法,便是冒充知名人士推假投。音或影像的可信度高,加上人名人有一定的信任感,往往以察陷阱。
的身分手段,如密、一次性或APP,如今在AI音仿冒面前得力。些往往不需入侵系,只需人「自」交出或行敏感操作即可。更令人的是,些攻在急刻最有效,受害者忙碌、情不定、於力中,到一熟悉音的求,往往就失去戒心。
以「音」的,也挑了我於「身分」的定定方式。在多景中,我去以音辨方,像是客服、端授、甚至新中的政治明,在音一生物特徵正在失去其一二的特性。
目前大多家的法律「音造」明,致法面此案件往往缺乏依。同平台企於用音料的收集使用,也缺乏足的透明度查制度。
政策面看,至少有以下作。其一,建立音深的法律定刑,AI仿冒音入欺行;其二,要求音合成工具建防制,制揭露AI合成的;其三,涉及公人物或敏感的音使用,立更格的授保。
於人而言,防意同重要。避免在路上大量公人音片段、置友的「通密」、突如其的音息保持警,都是降低被仿冒的基本做法。住即使起像是熟人,也主回或另外,不要靠音判真。
AI民主制度的威也不容小,在世界各地已有超50家,在期遭遇AI深操弄,假明、抹黑手到捏造,些操作不影,更可能改民策家命。
比音仿冒事件不是偶,而是警。AI音技的普及,便利意用,也同打了意用的大。在「你能相信的」的混中,唯有技、法制、教育AI意的同步提升,我才能在AI人之,出明的界,保真、保信任,也保每人的音主。
- 者:Knowing新
- 更多科技新 »