Ваш чат с ИИ не является безопасным.

Ваш чат с ИИ не является безопасным.

Пользователи ChatGPT столкнулись с неожиданными угрозами для конфиденциальности, так как их разговоры с AI начали появляться в результатах поиска Google. Эта проблема связана с функцией "общей ссылки" ChatGPT, которая позволяет генерировать публичные URL для отдельных бесед. Хотя функция изначально предназначалась для совместной работы, теперь эти ссылки индексируются поисковыми системами, обнажая чувствительный пользовательский контент.

Ваши разговоры с AI не защищены: как диалоги стали общедоступными

Процесс создания ссылки включает опцию сделать её "обнаруживаемой", что автоматически делает её видимой для веб-сканеров Google. Однако даже без этой опции, ссылки, размещенные в социальных сетях или на сайтах, все равно могут быть замечены поисковыми системами. Многие пользователи, не осознавая рисков, делились разговорами, содержащими личную информацию.

По данным Cybernews, простой поиск в Google по уникальному формату ссылки ChatGPT может выявить тысячи разговоров. Это могут быть черновики резюме с полными именами, адресами электронной почты и номерами телефонов, эмоциональные обсуждения, личные истории и даже спорный или незаконный контент.

Пользователи Reddit выразили шок от обнаруженных данных. Один пост описывал разговор с полной юридической информацией. Другие находки включали закодированные сообщения, намекающие на незаконную деятельность, и частные разговоры известных людей, включая их имена и контактные данные.

Исследователи Cybernews предупреждают, что индексированные разговоры могут быть использованы злоумышленниками для преследования или публичного позора. "Многие случаи содержат личные данные", отметила исследовательская группа. "Если в разговорах есть спорный контент, это может быть использовано против пользователей."

После обнародования проблемы, директор по информационной безопасности OpenAI, Дейн Стаки, объявил на X (бывший Twitter), что компания уберет функцию общей ссылки из приложения ChatGPT. Назвав её "кратковременным экспериментом", Стаки признал, что функция создала слишком много возможностей для случайного раскрытия информации. Он подтвердил, что OpenAI активно работает с поисковыми системами над удалением индексированного контента.

Команда Cybernews назвала это удаление "крайним, но необходимым шагом", добавив, что усилия OpenAI по удалению индексированного контента являются позитивным шагом к решению проблемы.

Как сделать разговоры в ChatGPT приватными

Общие ссылки ChatGPT публикуют статическую, доступную только для чтения версию разговора на сайте OpenAI. Удаление чата из учетной записи пользователя не удаляет общую ссылку, пользователи должны явно удалить общую ссылку, чтобы страница была снята с публикации.

Даже после удаления, поисковые системы могут временно отображать кэшированные версии страницы. Переход по таким ссылкам приведет к ошибке, как только страница будет удалена, но результат может оставаться видимым в индексе Google некоторое время.

Чтобы проверить или удалить ранее общие разговоры, пользователи могут перейти в настройки ChatGPT > Управление данными > Общие ссылки и удалить отдельные ссылки или весь общий контент сразу.

Исследователи Cybernews также отметили, что в то время как изменение файла robots.txt сайта обычно ограничивает индексирование поисковыми системами, веб-сканеры, особенно те, которые используются поставщиками крупных языковых моделей, все чаще игнорируют такие правила. Эта тенденция могла повлиять на решение OpenAI полностью отказаться от функции.

Ситуация подчеркивает риски публичного обмена данными на AI-платформах и легкость, с которой частный контент может стать доступным. Это также служит напоминанием о том, что инструменты, предназначенные для совместной работы, могут стать векторами для непреднамеренного раскрытия информации, если не контролировать их должным образом. Последствия этого инцидента продолжают разворачиваться, поскольку пользователи, исследователи и OpenAI разбираются с его последствиями.

Оставить коментарий
Комментарий:
Комментарии
  1. user

    Это действительно тревожно. Такие проблемы с конфиденциальностью могут сильно подорвать доверие пользователей к AI-платформам. Надеюсь, OpenAI найдет решение для предотвращения подобных случаев в будущем. Такие инциденты подчеркивают важность защиты личных данных в цифровую эпоху.