3

AI绘画侵权实锤!扩散模型可能记住你的照片,现有隐私保护方法全部失效

 1 year ago
source link: https://www.qbitai.com/2023/02/41719.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

AI绘画侵权实锤!扩散模型可能记住你的照片,现有隐私保护方法全部失效

head.jpg衡宇 2023-02-01 13:42:46 来源:量子位

AI绘画时脑子里全是训练集里的图

衡宇 发自 凹非寺

量子位 | 公众号 QbitAI

AI绘画侵权,实锤了!

最新研究表明,扩散模型会牢牢记住训练集中的样本,并在生成时“依葫芦画瓢”。

94fc118f262a4afdb918bbe8d0f11cf9~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=GU2B%2BntBsx3JxjfJuRGRdbhDWFw%3D

也就是说,像Stable Diffusion生成的AI画作里,每一笔背后都可能隐藏着一次侵权事件

不仅如此,经过研究对比,扩散模型从训练样本中“抄袭”的能力是GAN的2倍,且生成效果越好的扩散模型,记住训练样本的能力越强。

这项研究来自Google、DeepMind和UC伯克利组成的团队。

4097da5882bd4c898a848c797ea926b4~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=Sm6xAh5Ae1usgMLIgHAB%2FuGC9Lw%3D

论文中还有另一个糟糕的消息,那就是针对这个现象,现有的隐私保护方法全部失效

消息一出,网友炸开了锅,论文作者的相关推特转发眼看就要破千。

03899af9f77240c98cda7e7f1b67c16c~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=xcbKWApDGIsA%2FoM4XDSNNnfsEVk%3D

有人感慨:原来说它们窃取他人版权成果是有道理的!

支持诉讼!告他们!

95e71e22c1654225921a57f94fe70e16~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=80GXEuoDj8RcmicUt6V%2BMShL46I%3D

有人站在扩散模型一侧说话:

63f21f692c5841afb90142adff751708~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=mFeS7rs%2FyMejpd9TB0yStP0mbS8%3D

也有网友将论文结果延伸到当下最火的ChatGPT上:

aefda5166ddb40279d007f17220742fa~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=%2FYoKSlgKIi3ptvKBVM7QzAe4NqA%3D

现有隐私保护方法全部失效

扩散模型的原理是去噪再还原,所以研究者要研究事情其实就是:

它们到底有没有记住用来训练的图像,最后在生成时进行“抄袭”

训练集里的图像往往从互联网大海中捞取,有版权的、有商标的,有的还有隐私性,比如私人的医疗X光片什么的。

为了弄清楚扩散模型到底能不能记忆和再生个体训练样本,研究人员首先提出了“记忆”的新定义。

一般来说,关于记忆的定义集中在文本语言模型上,如果可以提示模型从训练集中恢复一个逐字序列,就表示这个序列被提取和记忆了。

与之不同,研究团队基于图像相似度来定义“记忆”

不过团队也坦白讲,对于“记忆”的定义是偏向保守的。

举个例子,左图是用Stable Diffusion生成的一张“奥巴马的照片”,这张照片和右图任何一张特定训练图像都不神似,因此这个图像不能算作根据记忆生成。

9698d798339a42e083e65fefa95018c0~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=iT2QfQSOTEzZrHYcyssiHsV0N3I%3D

但这并不表示Stable Difusion生成新的可识别图片的能力不会侵害版权和隐私。

接着,他们提取了包含个人照片、公司招标在内的1000多个训练样本,然后设计了一个两阶段的数据提取攻击(data extraction attack)。

具体操作是使用标准方法生成图像,然后标记那些超过人工推理评分标准的图像。

在Stable Diffusion和Imagen上应用这种方法,团队提取了超过100个近似或相同的训练图像副本。

既有可识别出的个人照片,也有商标标识,经过查验,大部分都是有版权的。

0e957df0ae7944b898f81acf59f3f775~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=sxUPK9EPT5el1u1GpHCF%2BXlyDuI%3D

而后,为了更好地理解“记忆”是怎么发生的,研究人员从模型中采样100万次,在CIFAR-10上训练了几百个扩散模型。

目的是分析模型准确性、超参数、增强和重复数据删除中,哪些行为会对隐私性产生影响。

9046fb7a52294b4abced2d402da5a690~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=zicW4gMZf8%2Bgo6XPgyV1S5A%2FQUQ%3D

最终得出了如下结论:

首先,扩散模型比GAN记忆更多。

但扩散模型也是评估的图像模型中隐私性最差的一群,它们泄漏的训练数据是GANs的两倍多。

4747bb9f80dc466f9374b18247c74804~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=5c6BAj9wMxY01iqycX%2BIucnBg2g%3D

而且,更大的模型可能会记住更多的数据

随着这个结论,研究人员还研究了20亿参数的文本-图像扩散模型Imagen,他们尝试提取出500张分布外得分最高的图像,让它们作为训练数据集中的样本,发现都被记忆了。

相比之下,同样的方法应用在Stable Difusion上,没有识别出任何记忆行为。

因此,在复制和非复制图像上,Imagen比Stable Difusion隐私性更差,研究人员把原因归结于Imagen使用的模型比Stable Difusion容量大,因此记得的图像越多。

此外,更好的生成模型(FID值更低)存储的数据更多

换句话来讲,随着时间的推移,同一个模型泄露的隐私更多,侵犯的版权也更多。

f310b9d06d2e4ba8861046ff234f0df7~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=SFtsUfCz6fD1M0XvWjTHjKEz58A%3D

(按FID排序的GAN模型,FID值越低,效果越好)

通过训练模型,团队发现增加效用会降低隐私性,简单的防御措施(如重复数据删除)不足以完全解决记忆攻击。

因此,隐私增强技术并不能提供一个可接受的隐私-效用权衡。

最终,团队对训练扩散模型的人提出了四个建议:

  • 建议将训练数据集的重复数据删除,并尽量减少过度训练;
  • 建议使用数据提取攻击或其他审计技术来评估训练模型的隐私风险;
  • 如果有更实用的隐私保护技术,建议尽可能使用;
  • 希望AI生成的图片不会免费对用户提供涉及隐私的部分。

版权方未曾停止维权

研究一出,可能对正在进行的诉讼产生影响。

刚过去的1月底,图库老大哥盖蒂图片社(Getty Images)以侵犯版权的名义,在伦敦高等法院起诉了Stability AI。

c5ac79e6f083474aa58946641d71030d~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=HehW3X67Pegq1VBIcVvdaODxK78%3D

△Stability AI

盖蒂图片社认为,Stability AI“非法复制和处理了数百万受版权保护的图像”,以此训练名下的Stable Difussion。

Stable Difussion的部分训练数据是开源的。经过分析和查验水印发现,包括盖蒂在内的许多图片社都不知不觉间为Stable Difussion的训练集提供了大量素材,占比不小。

但从始至终,Stability AI都没有与图片社对接过

许多AI公司都认为这种做法受到美国合理使用原则等法律的保护,但大部分版权所用者都不同意这种说法,认为这种行为侵犯了自己的权益。

虽然Stability AI之前发表声明,说下个版本中,版权所有者可以在训练图库中删掉自己的版权作品,但现阶段仍然有人不服。

7bdcb88416354f01b7ca65239640500f~tplv-tt-shrink:640:0.image?traceid=20230201134016D6362B192806850093DE&x-expires=2147483647&x-signature=JicEmy2QY88yQdgx%2FVaQApcnOd4%3D

1月中旬的时候,三位艺术家已经对Stability AI以及Midjourney提起诉讼。

法律专家也各执一词,为达成统一意见,但他们纷纷同意法院需要针对版权保护问题做出裁决。

盖蒂图片社的CEO Craig Peters表示,公司已经向Stability AI发了通知,表示“你就快在英国吃官司啦”!

公司还放话:

我们对侵权行为带来的损失并不计较,也无意让AI艺术工具停止开发。

把Stability AI告上法庭并不是为了我们盖蒂一家的利益。

选择起诉有更深层次的长期目的,希望法院设定新的法律来规范现状。

参考链接:
[1]https://arxiv.org/pdf/2301.13188.pdf
[2]https://www.theverge.com/2023/1/17/23558516/ai-art-copyright-stable-diffusion-getty-images-lawsuit
[3]https://twitter.com/Eric_Wallace_/status/1620449934863642624

版权所有,未经授权不得以任何形式转载及使用,违者必究。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK