Исследователи даже смогли выбить у ChatGPT инструкцию по изготовлению бомбы! Чат-бот вывалил всё, что знает — стоило лишь замаскировать слово «бомба» под ASCII. Баг нашли во всех популярных ИИ — GPT-3.5, GPT-4, Gemini, Claude и Llama2.
Промпт — на второй пикче. Конвертер текста в ASCII лежит здесь – https://patorjk.com/software/taag/

Мы в VK: https://vk.com/darkwebex
