Исследователи обнаружили, что чат-боты на основе ИИ можно обмануть, формулируя запросы в виде стихов, что позволяет получить доступ к запрещённой информации.
Группа исследователей из Европы провела исследование, в ходе которого выяснилось, что чат-боты, такие как ChatGPT, могут быть обмануты путём формулирования запросов в поэтической форме. Это позволяет получить информацию о создании ядерного оружия, детской порнографии и вредоносном ПО. Исследователи протестировали этот метод на 25 чат-ботах, созданных компаниями OpenAI, Meta и Anthropic, и добились успеха в различных степенях. Оказалось, что добавление поэтических элементов к запросам позволяет обойти защитные механизмы ИИ. Исследователи считают, что это связано с тем, что поэтическая форма делает запросы менее предсказуемыми для ИИ, что затрудняет срабатывание защитных механизмов.