MIT Technology Review的文章介绍了一种名为Nightshade的新工具,它允许艺术家在上传艺术作品到网上之前,对图片像素进行微妙的改动。这种改动旨在“毒化”数据,如果这些数据被用于AI训练集,可能会导致AI模型出现故障。Nightshade的目的是干扰如DALL-E、Midjourney和Stable Diffusion这样的图像生成AI模型,使它们产生错误的输出,例如将狗误认为是猫,或将汽车误认为是牛。
Nightshade的开发是艺术家们对AI公司未经许可或补偿就使用其版权材料的回应。这个工具是更广泛努力的一部分,旨在通过提供一种威慑手段,保护艺术家的知识产权,防止他们的作品被未经授权的使用。
文章还提到了数据毒化技术潜在的滥用问题,但指出要对更大的AI模型造成显著损害需要数千个毒化样本,因为这些模型的训练数据量巨大。领域专家承认需要开发出对抗此类攻击的坚固防御,因为随着时间的推移,AI模型的漏洞可能会变得更加严重。
文章暗示,Nightshade可能会影响AI公司更多地尊重艺术家的权利,可能导致更好的实践,例如支付版税。一些艺术家表示希望Nightshade能改变现状,将一些权力还给创作者。
https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/
MIT 新科技Nightshade,给AI投毒,版权保护人类画师
最新推荐文章于 2024-08-24 17:27:39 发布