Отравленные данные могут помешать обучению ИИ-моделей

Исследователи из Чикагского университета разработали Nightshade — метод «отравления» данных, который нарушает процесс обучения ИИ. Это должно помочь защитить работы художников от генеративных ИИ-моделей.

Nightshade искажает изображение так, что оно сохраняет свой первоначальный вид, но в латентном пространстве представляет собой совершенно другой концепт. Первые эксперименты уже показали, что Nightshade действительно сбивает ИИ с толку: изображения искривляются, и иногда вместо требуемых кошек могут появиться собаки или другие животные.

Отравленные данные могут помешать обучению <a wiki-id=ИИ-моделей " src="https://sun9-60.userapi.com/impg/86L6iDUEf31ny_sneoFyIDSTSfy_VmG0VqZ_7w/mIsu6OzEqFA.jpg?size=1000x667&quality=96&sign=54b5cc9434f90dff42b541bf7eef6581&c_uniq_tag=G5MvtvKXgnaqPvO71bfYVBYtUvzDNsPwqJUG7S0DSVk&type=album">
Мы в VK: https://vk.com/darkwebex