站長之家(ChinaZ.com) 10月7日消息:今年 7 月,白宫宣布,七家大型科技公司已承诺采取人工智能安全措施,包括部署水印,以確保算法生成的內容可以與真人作品區分開來。
在这些巨头中,亚马逊、谷歌和 OpenAI 都特別提到了水印技術——即在文本和圖像中添加信息以證明內容出處的技術——作爲抵禦其生成式人工智能模型所産生的錯誤信息、欺詐和深度僞造的一種方法。
這樣做的目的是,人工智能生成的材料將被巧妙地標記,以便在有人試圖將其內容冒充爲人類制作的內容時,能夠被檢測和識別出來。
但學者們警告說,圖像中的數字水印——在創建內容時添加噪聲,然後在圖像數據集中檢測該噪聲模式的存在——可能並不能提供多少安全保證。
日前来自马里兰大学的研究团队取得了重大突破,他们制定了一种绕过嵌入在 AI 生成图像中的所有水印保护的方法。在接受 Wired 采访时,计算机科学教授 Soheil Feizi 表示,目前没有可靠的方法可以为 AI 生成的图像加上水印,他的团队成功地绕过了「所有方法」。
就目前而言,惡意行爲者繞過水印仍然太容易。而且,還可以將水印添加到人工制作的圖像中,從而觸發誤報。
数字水印已被各种 AI 公司推崇为一种功能,使用户能够知道图像是否是借助 AI 生成的。问题是我们仍然没有万无一失、无法被操纵的水印技术。
Feizi 和他的团队在一份预印本论文中详细记录了他们的研究结果。在论文中,研究人员表示,使用微妙的图像扰动的水印方法可以轻松地通过扩散净化攻击来破解。
这种方法的工作原理是,在使用 AI 生成图像时,会对其应用一种人眼不可见的特定噪声模式。问题在于,这种模式可以很容易地被修改或移除,而对整体图像的更改很小。
同樣,使用大量擾動的水印技術,即對圖像進行重大更改的技術,可以通過易于移除水印的模型替代對抗攻擊來破解。
此外,恶意行为者可以使用水印技术来针对真正的艺术家,将他们的图像标记上会导致它们被错误地识别为由 AI 生成的模式。这可能会损害艺术家的声誉。
(舉報)