Logo Море(!) аналитической информации!
IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware

Поэтические запросы обходят защиту ИИ и раскрывают запрещённую информацию

Исследователи обнаружили, что чат-боты на основе ИИ можно обмануть, формулируя запросы в виде стихов, что позволяет получить доступ к запрещённой информации.

Группа исследователей из Европы провела исследование, в ходе которого выяснилось, что чат-боты, такие как ChatGPT, могут быть обмануты путём формулирования запросов в поэтической форме. Это позволяет получить информацию о создании ядерного оружия, детской порнографии и вредоносном ПО. Исследователи протестировали этот метод на 25 чат-ботах, созданных компаниями OpenAI, Meta и Anthropic, и добились успеха в различных степенях. Оказалось, что добавление поэтических элементов к запросам позволяет обойти защитные механизмы ИИ. Исследователи считают, что это связано с тем, что поэтическая форма делает запросы менее предсказуемыми для ИИ, что затрудняет срабатывание защитных механизмов.

Источник: wired.com

Бесплатный конструктор сайтов и Landing Page

Хостинг с DDoS защитой от 2.5$ + Бесплатный SSL и Домен

SSD VPS в Нидерландах под различные задачи от 2.6$

VPS в России, Европе и США

Бесплатная поддержка и администрирование

Оплата российскими и международными картами

Новости мира IT:

Архив новостей

IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware

Информация для рекламодателей PR-акции, размещение рекламы — adv@citforum.ru Пресс-релизы — pr@citforum.ru
Обратная связь
Информация для авторов
Rambler's Top100 TopList This Web server launched on February 24, 1997
Copyright © 1997-2000 CIT, © 2001-2019 CIT Forum
Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...