Исследователи из Чикагского университета разработали Nightshade — метод «отравления» данных, который нарушает процесс обучения ИИ. Это должно помочь защитить работы художников от генеративных ИИ-моделей.
Nightshade искажает изображение так, что оно сохраняет свой первоначальный вид, но в латентном пространстве представляет собой совершенно другой концепт. Первые эксперименты уже показали, что Nightshade действительно сбивает ИИ с толку: изображения искривляются, и иногда вместо требуемых кошек могут появиться собаки или другие животные.
Мы в VK: https://vk.com/darkwebex