ИИ-чатботы взломали с помощью ASCII-картинок

Исследователи из Вашингтона и Чикаго представили ArtPrompt — новую технику, позволяющую обходить меры безопасности в популярных больших языковых моделях (LLM), таких как GPT-3.5, GPT-4 и других. Метод, подробно описанный в научной статье «ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs», использует запросы в виде ASCII-картинок. Этот метод позволяет чат-ботам давать советы по созданию бомб и подделке денег, обходя этические нормы и меры безопасности.
Подробнее https://7ooo.ru/group/2024/03/09/704-ii-chatboty-vzlomali-spomoschyu-ascii-kartinok-grss-288818408.html

ИИ-чатботы взломали с помощью ASCII-картинок 
 - 961664258424

Комментарии

Комментариев нет.