В последнее время вопросы искусственного интеллекта и защиты личной информации привлекли широкое внимание. С увеличением числа людей, рассматривающих ChatGPT как инструмент для психологического консультирования и жизненного руководства, генеральный директор OpenAI Сэм Альтман выразил предупреждение. Он отметил, что эти разговоры с ИИ не обладают юридическим правом на конфиденциальность и могут быть требованы к раскрытию содержания разговоров пользователей в случае судебного разбирательства.
С ростом зависимости людей от ИИ вопросы конфиденциальности и наблюдения становятся все более важными. Особенно среди поколения Z ИИ постепенно заменяет традиционных психологов, лайф-коучей и даже друзей. Однако Олтман подчеркивает, что разговоры с ChatGPT не защищены юридическим 'привилегированным статусом', что означает, что он не может предоставить правовую защиту конфиденциальности пациентов, как это делают психотерапевты, юристы или врачи.
Альтман в интервью заявил: 'Если вы расскажете ChatGPT свои самые сокровенные вещи, и если возникнет судебный процесс, мы, возможно, будем вынуждены предоставить эти разговоры, что является очень плохой ситуацией.' Он отметил, что в настоящее время общество и соответствующие учреждения еще не установили разумный правовой механизм защиты для 'разговоров с ИИ', что является часто упускаемым, но крайне важным вопросом для решения.
С быстрым развитием технологий ИИ, поиск баланса между содействием технологическим инновациям и защитой конфиденциальности пользователей стал неотложной социальной проблемой, требующей решения. Нам нужно больше обсуждений и законодательных усилий, чтобы гарантировать, что, наслаждаясь удобствами, которые предоставляет ИИ, мы также можем полностью защитить права на конфиденциальность пользователей. Это требует не только саморегулирования со стороны технологических компаний, но и совместных усилий правительства и всех слоев общества.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
7
Поделиться
комментарий
0/400
ThatsNotARugPull
· 2ч назад
Личные секреты нельзя рассказывать ИИ.
Посмотреть ОригиналОтветить0
GateUser-75ee51e7
· 12ч назад
Это тоже называется утечкой конфиденциальности?
Посмотреть ОригиналОтветить0
BlockchainBard
· 07-28 09:50
Это абсурд.
Посмотреть ОригиналОтветить0
ChainSauceMaster
· 07-28 09:40
Ну и дела, это нас продает ИИ.
Посмотреть ОригиналОтветить0
DAOdreamer
· 07-28 09:39
Кому это интересно, все равно использовать.
Посмотреть ОригиналОтветить0
TokenAlchemist
· 07-28 09:31
лmao сам только что выявил векторы неэффективности в протоколах конфиденциальности... ngmi
В последнее время вопросы искусственного интеллекта и защиты личной информации привлекли широкое внимание. С увеличением числа людей, рассматривающих ChatGPT как инструмент для психологического консультирования и жизненного руководства, генеральный директор OpenAI Сэм Альтман выразил предупреждение. Он отметил, что эти разговоры с ИИ не обладают юридическим правом на конфиденциальность и могут быть требованы к раскрытию содержания разговоров пользователей в случае судебного разбирательства.
С ростом зависимости людей от ИИ вопросы конфиденциальности и наблюдения становятся все более важными. Особенно среди поколения Z ИИ постепенно заменяет традиционных психологов, лайф-коучей и даже друзей. Однако Олтман подчеркивает, что разговоры с ChatGPT не защищены юридическим 'привилегированным статусом', что означает, что он не может предоставить правовую защиту конфиденциальности пациентов, как это делают психотерапевты, юристы или врачи.
Альтман в интервью заявил: 'Если вы расскажете ChatGPT свои самые сокровенные вещи, и если возникнет судебный процесс, мы, возможно, будем вынуждены предоставить эти разговоры, что является очень плохой ситуацией.' Он отметил, что в настоящее время общество и соответствующие учреждения еще не установили разумный правовой механизм защиты для 'разговоров с ИИ', что является часто упускаемым, но крайне важным вопросом для решения.
С быстрым развитием технологий ИИ, поиск баланса между содействием технологическим инновациям и защитой конфиденциальности пользователей стал неотложной социальной проблемой, требующей решения. Нам нужно больше обсуждений и законодательных усилий, чтобы гарантировать, что, наслаждаясь удобствами, которые предоставляет ИИ, мы также можем полностью защитить права на конфиденциальность пользователей. Это требует не только саморегулирования со стороны технологических компаний, но и совместных усилий правительства и всех слоев общества.