站長之家(ChinaZ.com) 4 月 21 日消息:本周,微軟演示了 VASA–1,这是一个基于静态图像、音频样本和文本脚本来创建人物讲话视频的框架,微軟声称——這是正確的——這個框架太危險了,不適合向公衆發布。
这些由 AI 生成的视频,可以让人物以克隆的声音令人信服地配合脚本说话,正是美国联邦贸易委员会上个月警告的那种情形,之前已提出规则以防止利用 AI 技术进行冒充诈骗。
微軟团队在宣布中就承认了这一点,他們解釋說由于倫理考慮,此技術沒有發布。他們堅稱,他們展示的研究用于生成虛擬互動人物,而不是爲了冒充任何人。因此,没有计划推出任何产品或 API。
微軟的研究人员声明:「我们的研究重点是为虚拟 AI 化身生成视觉感知技能,以期望正向应用。」他们接着说,「本意并不是创造用来误导或欺骗的内容。
然而,像其他相關的內容生成技術一樣,它仍可能被濫用來冒充人類。我們反對任何創建誤導或有害真實人物內容的行爲,並且對將我們的技術應用于促進僞造檢測感到興趣。」
生物特征认证公司Token 的主席,也是常谈生成 AI 的演讲者 Kevin Surace 通过电子邮件告诉 The Register,虽然之前有技术演示显示了由静态画面和克隆的声音文件动画化的脸,但微軟的示范反映了最新技術狀態。
「個性化電子郵件和其他商業群衆通信的潛力是巨大的,」他認爲。「甚至還包括動畫化舊照片。從某種程度上說,這只是好玩,另一方面它有我們在未來幾個月和幾年內都會使用的實際商業應用。」
网络安全公司 Deeptrace 在 2019 年进行评估时发现,深度伪造的「乐趣」在于 96% 是非自愿色情内容。
盡管如此,微軟的研究人员认为,能够创造出看起来逼真的人物并将文字放到他们嘴里,是有正面用途的。
他們在一篇研究論文中提出,「此类技术有望丰富数字通信,提高那些有沟通障碍者的可及性,通过互动 AI 辅导转变教育方法,以及在医疗保健中提供治疗支持和社交互动。」值得注意的是,該論文中沒有提及「色情」或「假信息」。
尽管有争议,AI 生成的视频不完全等同于深度伪造,后者被定义为数字操纵而不是生成方法,但当一个令人信服的假象可以不用剪切粘贴技术而轻易地被使用时,这种区别就变得无关紧要了。
当被问及微軟不向公众发布这项技术以防滥用的事实时,Surace 对限制的可行性表示怀疑。
他说:「微軟和其他公司目前已经暂停,直到他们解决隐私和使用问题。」他问道,「将如何规范那些出于正确理由使用此技术的人?」
Surace 补充说,已经有相似精细的开源模型存在,例如 EMO。他说:「人们可以从 GitHub 提取源代码并围绕它构建服务,这可能会与微軟的输出相匹敌。」他注意到,「因爲這個領域的開源特性,不管怎樣,規範它都是不可能的。」
盡管如此,世界各地的国家正在尝试规范 AI 伪造的人物。加拿大、英国等国家都有可以应用于深度伪造的规定,其中一些规定满足了更广泛的政治目标。正是这个星期,英国刚刚使未经同意制作色情深度伪造图像成为非法行为。在英国的 2023 年在线安全法下,分享此类图片已是不允许的。
今年 1 月,美国两党议员提出了 2024 年打击显著伪造图像和非自愿编辑行为法案(DEFIANCE Act),该法案为非自愿深度伪造图像的受害者在法庭上提起民事诉讼创造了途径。
以及在周二,4 月 16 日,美国参议院司法委员会隐私、技术与法律小组委员会举行了题为「人工智能監管:選舉深度僞造」的聽證會。
在准备好的声明中,DeepMedia 的 CEO Rijul Gupta 说道:
「深度僞造最令人擔憂的方面是,它們能夠爲壞人提供合理的否認理由,使他們能夠將真正的內容視爲假的。公衆信任的這種侵蝕打擊了我們社會結構的核心和民主的基礎。人類的大腦天生就相信所見所聞,因此特別容易受到深度僞造的欺騙。隨著這些技術變得越來越複雜,它們有可能破壞我們社會所依賴的共同現實感,營造出一種不確定和懷疑的氛圍,讓公民質疑他們遇到的每一條信息的真實性。」
(舉報)