继 Glaze 之后, 来自芝加哥大学的团队公布了另外一种保护图像的工具 "Nightshade", 相比于 Glaze 通过调整图像细微像素来误导模型训练时的判断, 从而使人类艺术家保护自己艺术品真正重要的东西 —— 艺术风格. 而 Nightshade 则是直接对可能会被用于模型训练的材料进行「下毒」, 含毒的材料如果经过加工被添加到数据集中, 会影响整个 prompt 关键词的生成结果, 使模型生成与 prompt 完全不相干的结果, 而模型中毒后现有的手段也难以从数据集中分辨和剔除这部分有毒的材料, 从而实现更深远的 "资产保护" 效果.
参考文章
● Glaze - What is Glaze
● 50张图“毒倒”Stable Diffusion,汽车和牛都分不清了 - 微信公众号 (存档)
● This new data poisoning tool lets artists fight back against generative AI | MIT Technology Review
● 2310.13828 Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models - arXiv
● New data poisoning tool lets artists fight back against generative AI : r/artificial
#人工智能 #AIGC #知识产权
via CXPLAY's Memos