当前位置:首页 期刊杂志

?省理?学院团队研发“照?保护罩”能阻???智能模型修改原图

时间:2024-04-23

2023年早些时候,当意识到生成式人工智能能够轻松地篡改人们的图像时,人们开始在社交媒体账户上把隐私设置调成了最严格的,并将脸书和推特个人资料图片换成了自己的画像。

这一发现是在玩了基于StableDiffusion的图像编辑软件和各种深度伪造应用程序之后发现的。通过从推特上随便选择一个人的头像,点几下鼠标并输入文字提示,就可以生成关于那个人的深度伪造色情视频,并编辑照片中的衣服。

虽然深度伪造色情多年来一直被用来折磨女性,但最新一代的人工智能使其成为了一个更大的问题。这些系统比以前的深度伪造技术更容易使用,而且它们可以生成看起来完全令人信服的图像。

以图生图的人工智能系统允许人们使用生成式人工智能编辑现有图像,“可以是非常高质量的……因为它基本上基于现有的单一高分辨率圖像,”美国芝加哥大学计算机科学教授本·赵介绍,“结果是同样的质量,同样的分辨率,同样的细节水平,因为通常(人工智能系统)只是在移动东西。”

你可以想象,当了解到一种新工具可以帮助人们保护自己的图像免受人工智能操纵时,这令人们松了一口气。PhotoGuard是由麻省理工学院的研究人员创建的,它的作用就像照片的保护罩。它以我们无法察觉的方式改变了照片,但阻止了人工智能系统对它们进行修改。如果有人试图使用基于生成式人工智能模型(如StableDiffusion)的应用程序编辑PhotoGuard“保护”的图像,结果将看起来不真实或扭曲。

另一个以类似方式工作的工具叫做Glaze。但它并没有保护人们的照片,而是帮助艺术家防止他们受版权保护的作品和艺术风格被抓取到人工智能模型的训练数据集中。自从StableDiffusion和DALL-E2等图像生成式人工智能模型出现以来,一些艺术家就一直在奋起反抗,认为科技公司窃取了他们的知识产权,并用来训练这些模型,但却没有给他们补偿。

Glaze由赵和芝加哥大学的一组研究人员开发,帮助他们解决这个问题。Glaze像是“斗篷”一样遮住图像,应用人类几乎看不到的细微变化,但能阻止人工智能模型学习定义特定艺术家风格赵表示,Glaze破坏了人工智能模型的图像生成过程,阻止他们生成无限多看起来像特定艺术家作品的图像。

PhotoGuard有一个与StableDiffusion合作的在线演示,艺术家们很快就能使用Glaze。赵和他的团队目前正在测试该系统,并将允许有限数量的艺术家在本周晚些时候注册使用。

但这些工具做不到完全保护。例如,你仍然可以拍摄受PhotoGuard保护的图像的截图,并使用人工智能系统进行编辑。尽管它们证明了人工智能图像编辑问题有巧妙的技术解决方案,但除非科技公司开始更广泛地采用类似的工具,否则它们本身毫无价值。现在,我们放在网上的图片对于任何想使用人工智能滥用或篡改它们的人来说都是容易得到的“猎物”。

阻止我们的图片被不良行为者篡改的最有效方法是社交媒体平台和人工智能公司为人们提供方法,使他们的图像免疫,并在每次人工智能模型更新的时候确保方法仍然奏效。

在向白宫作出的自愿承诺中,领先的人工智能公司承诺“开发”检测人工智能生成内容的方法。然而,他们没有承诺会使用它们。如果他们真的要保护用户免受生成人工智能的伤害,那可能是最关键的第一步。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!