AI隐私崩盘「ChatGPT对话」在法律前裸奔;Altman:我害怕输入个资、难知道谁会拿到资料

OpenAI 执行长 Sam Altman 提醒:与 ChatGPT 的对话不受法律特权保护,可能在诉讼中成为证据,引发 AI 隐私空窗与监控扩张疑虑。 (前情提要:Sam Altman从新手老爸看AI未来:人形机器人要来了,你有准备吗? ) (背景补充:AI能翻案?无律师女靠ChatGPT挖500万遗产诈骗、说服法院重启调查 ) 人工智慧已无缝融入日常,但随着便利而来的隐忧正被拉向聚光灯:任何人今天输入 ChatGPT 的字句,明天都可能出现在法院。 法律特权的缺口 OpenAI 执行长 Sam Altman 最近在与播客主持人 Theo Von 的对谈中给出警告: 「当你与 ChatGPT 分享最敏感的内容时,如果发生诉讼,我们可能被要求提供这些内容。目前,与治疗师、律师或医生谈话时都享有法律特权保护,但我们尚未为 ChatGPT 的对话建立这样的机制。」 一句话揭开了长久被忽略的差距。医师病历、律师会谈与宗教告解都受法律或伦理守则保护,司法要调阅必须跨过高门槛;聊天机器人却不存在此防火墙,用户与模型互动的文字在法理上不具豁免权,只要法院传票送达,服务商就得交出档案。 政策与诉讼的冲突 OpenAI 官网隐私政策虽写明资料采取传输加密,但并未提供端对端加密。文件同时载明,用户内容「可能与第三方共享」。这种弹性在商业运作上常见,却在近期被推上矛盾顶点。于《纽约时报》版权诉讼案中,法院要求 OpenAI 留存所有相关用户资料的命令,直接与公司对外宣传的「删除或最小化收集」说法相撞,充分显示现行法律框架对 AI 服务缺乏精细分类。 当 AI 模型训练需要大量语料,企业倾向长期保存文本以优化演算法;一旦官方文件落入司法管辖,用户就丧失抹除权。法律与技术节奏不同步,冲突因而难以避免。Altman对此表示: 这可能是我有时害怕使用某些人工智慧技术的原因之一,因为我不知道我想输入多少个人信息,因为我不知道谁会拥有这些信息。 企业监控可能性 企业掌握个资后有可能会有监控问题,这并非抽象恐惧。聊天内容一旦可被大规模检索,政府与企业就有动机把即时对话转化成风险评估或行为预测。对律师、医师、心理师等专业人士而言,使用 ChatGPT 答复客户或患者问题,看似节省时间,却可能违反职业道德。因为服务商对上传文本拥有分析权,等同把客户机密暴露于第三方。 Altman 进一步指出: 「我担心世界上的 AI 越多,监控就会越普及。历史一再证明,政府在这方面往往会走得太远,这确实令我感到不安。」 传统的律师—客户特权要求资讯仅在双方之间流通;引入 AI 等于多了一双看不见的眼睛,且无现成条文赋予同层级保护。专业人士若未更新合约与工作流程,极可能在不知情下触法。 走向解方 一个更安全的 AI 生态需要同时向三条轴线推进。首先立法部门应制定明确的「数位法律特权」规则,将特定聊天加密并纳入司法取证的高标门槛。再者企业必须把端对端加密、最小化储存与客户自主管理权融入产品设计,而非事后补洞。而最重要的且我们能做的,就是用户应自行主动将高敏感资料与一般询问分开,在必要时改用传统安全管道交流。 AI 带来的效率不该以牺牲隐私为代价。当对话框逐渐取代键盘与电话,人们需要的不是沉默,而是可验证的法律保障与技术护栏。Altman 的提醒或许不甚悦耳,却提供一面镜子:反射出创新速度与制度修补之间正在拉大的缝隙。填补缝隙,才是让 AI 真正造福社会的必经之路。 相关报导 畅想 RobotFi:机器人也上链,带来哪些新玩法? Vitalik对机器人「喵喵叫」引发热议,以太坊社群:我全部钱都压在学猫叫的人身上 算力为王!黄仁勋谈AI如何重构全球价值链、机器人何时普及、AI能加速制造业回流美国?〈AI隐私崩盘「ChatGPT对话」在法律前裸奔;Altman:我害怕输入个资、难知道谁会拿到资料〉这篇文章最早发布于动区BlockTempo《动区动趋-最具影响力的区块链新闻媒体》。

VON-1.3%
ETH-0.68%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)