Все новости
Это интересно
Сейчас читают
Технологии 3087
Аватар Evernews Evernews

Через ChatGPT научились красть загруженные данные, но есть нюансы

0
0
Поделиться
Телеграфировать

Чтобы провернуть такой трюк, потребуется специально подготовленный сайт и кое-какие действия со стороны жертвы.

Через ChatGPT научились красть загруженные данные, но есть нюансы

Исследователь безопасности Йоханн Ребергер рассказал о способе, позволяющем злоумышленнику получить данные, загруженные пользователем в чат-бот ChatGPT. Речь идет о файлах, которые могут передавать боту подписчики ChatGPT Plus.

Файлы хранятся в специальной изолированной среде, через интерфейс бота с этой средой можно обращаться так же, как с обычными файлами в Linux. Благодаря этому ChatGPT можно попросить передать файлы на удаленный сервер.

Ребергер подготовил страницу с инструкциями, предписывающими чат-боту закодировать все файлы в изолированной среде и передать получившиеся данные на удаленный сервер. Когда чат-боту было предложено обработать «вредоносную» страницу, он выполнил все инструкции и отправил данные.

Аналогичный эксперимент провел один из журналистов Tom's Hardware. В его случае уязвимость тоже сработала: бот без проблем переслал данные пользователя на удаленный сервер.

Пока, отмечает издание, уязвимость вряд ли можно назвать действительно опасной: требуется, чтобы пользователь бота не только хранил в изолированной среде чувствительные файлы, но и приказал боту обработать страницу с «закладкой».

Впрочем, если такие «закладки» удастся сделать незаметными — например, спрятав их в коде страницы и не выводя на экран — то опасность может несколько повыситься. Исследователи надеются, что разработчики ChatGPT что-то придумают по этому поводу.

Теги: Технологии
Аватар Evernews
Evernews
8068 подписчиков