Сэм Альтман: данные из ChatGPT могут быть использованы против вас

Обсуждая свои самые сокровенные дела с ChatGPT, вы можете обнаружить, что не имеете никакой защиты: в отличие от разговоров с юристом или врачом, здесь ваши слова могут стать юридическими доказательствами.

Почему разговоры с ChatGPT находятся под угрозой?

Согласно Сэму Альтману, генеральному директору OpenAI, существует значительная разница между общением с человеком, который пользуется так называемым "юридическим привилегией" – таким как адвокат, врач или терапевт – и взаимодействием с ChatGPT. В то время как ваши конфиденциальные данные с профессионалами защищены определенными нормами, этого не происходит в чатах с искусственным интеллектом. Альтман, в ходе интервью на подкасте This Past Weekend с Тео Воном, описал этот недостаток как "огромную проблему".

На практике, если имеется юридический случай или расследование, обсуждения, проведенные с ChatGPT, могут быть запрошены судами. Это риск, недооцененный многими пользователями, которые сегодня все чаще делятся личными проблемами и очень чувствительными данными с системами ИИ.

Что означает отсутствие «юридической привилегии» при работе с ИИ?

Концепция privilegio legale обеспечивает конфиденциальность определенных коммуникаций и их недопустимость в качестве доказательства против лица в суде. В настоящее время, когда вы говорите с адвокатом, врачом или терапевтом, ваши слова защищены этим режимом. Однако Альтман уточнил:

«Мы еще не разрешили этот аспект, когда говорили с ChatGPT.»

Это имеет прямые последствия: любой, кто поделился важными данными или признаниями через платформу, в случае споров, может увидеть их раскрытыми в суде.

Проблема становится еще более очевидной, поскольку, как подчеркивается в интервью Альтмана, использование ИИ для финансовой, психологической и медицинской помощи быстро растет. В этом сценарии отсутствие правовой защиты рискует стать системной уязвимостью.

Новые регуляции для ChatGPT и конфиденциальности: каково наше положение?

Сэм Альтман не просто забил тревогу: он заявил, что находится в диалоге с политиками и законодателями, которые осознают необходимость вмешательства. Однако четкое законодательство еще не было определено. "Это одна из причин, почему иногда я боюсь использовать определенные инструменты ИИ, – заявляет Альтман, – потому что я не знаю, сколько личной информации останется конфиденциальной и кто получит к ней доступ."

Следовательно, потребуется обновленная нормативная база, которая хотя бы частично приравнивает защиту данных в ИИ к защите, обеспечиваемой обменами с медицинскими и юридическими специалистами. Но путь все еще длинный, и на данный момент ответственность остается на пользователе.

Наблюдение и ИИ: куда это может привести?

Другой аспект этой проблемы касается увеличения наблюдения. Беспокойство Алтмана заключается в том, что ускорение искусственного интеллекта приведет к большему контролю над данными со стороны правительств. "Я боюсь, что чем больше ИИ в мире, тем больше будет наблюдения," сказал он. Этот страх оправдан тем, что по причинам национальной безопасности или для предотвращения незаконной деятельности правительства могут легко запросить доступ к ИИ-разговорам.

Альтман четко различает необходимость определенного компромисса – «Я готов пожертвовать некоторой конфиденциальностью ради коллективной безопасности» – и риск того, что правительства идут «определенно слишком далеко», как это часто происходило в истории. Предупреждение, следовательно, двустороннее: конфиденциальность в ChatGPT не гарантирована, но будущая тенденция рискует еще больше ее ограничить в имени контроля и предотвращения.

Что меняется для тех, кто использует ChatGPT: конкретные риски и лучшие практики

Если вы используете ChatGPT для получения деликатных советов – будь то психологического, медицинского или юридического характера – вы должны знать, что никакой защитный фильтр не активен для ваших данных. Если завтра вы окажетесь вовлечены в судебный процесс или расследование, эта информация может быть запрошена и использована против вас.

На данный момент единственным реальным решением является избегание ввода чувствительных персональных данных или ключевых откровений в чате с ИИ. Ожидая регулирования, это лучшая практика, рекомендованная теми же лидерами OpenAI. Всегда имейте в виду, что даже удаление чатов не дает абсолютной гарантии недоступности.

Есть ли способ защитить себя сейчас? Что будет дальше?

На индивидуальном уровне рекомендация остается максимально осторожной: сегодня ни один технический инструмент не может гарантировать "юридическую привилегию" для ваших разговоров с ChatGPT. Если вы хотите действовать немедленно, ограничьте использование общими или неидентифицируемыми вопросами, откладывая чувствительное содержание на соответствующие площадки.

Однако юридическая дискуссия только начинается. По словам Альтмана, для истинной защиты конфиденциальности и свободы пользователей в эпоху искусственного интеллекта потребуются "быстрые политические действия". Остается увидеть, кто из операторов отрасли и законодателей сделает первый шаг, чтобы заполнить этот пробел.

Будущее конфиденциальности в ChatGPT и ИИ остается открытым: в ближайшие месяцы все будет на кону, в условиях законодательных ускорений и новых политик от крупных технологических компаний. Следите за обсуждением в сообществе и оставайтесь в курсе: право на настоящую конфиденциальность с ИИ далеко не гарантировано.

NOT-8.54%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить