Новый хак делает из ChatGPT криминального гения и убивает всю цензуру. Юзеры нашли способ выведать у нейронки любую жесть — нужно просто замаскировать запрос под арт ASCII.

Исследователи даже смогли выбить у ChatGPT инструкцию по изготовлению бомбы! Чат-бот вывалил всё, что знает — стоило лишь замаскировать слово «бомба» под ASCII. Баг нашли во всех популярных ИИ — GPT-3.5, GPT-4, Gemini, Claude и Llama2.

Промпт — на второй пикче. Конвертер текста в ASCII лежит здесь – https://patorjk.com/software/taag/

Новый хак делает из ChatGPT криминального гения и убивает всю цензуру. Юзеры нашли способ выведать у нейронки любую жесть — нужно просто замаскировать запрос под арт ASCII.
Новый хак делает из ChatGPT криминального гения и убивает всю цензуру. Юзеры нашли способ выведать у нейронки любую жесть — нужно просто замаскировать запрос под арт ASCII.
Мы в VK: https://vk.com/darkwebex