L'effondrement de la vie privée de l'IA "Dialogue ChatGPT" se déroule à découvert devant la loi ; Altman : J'ai peur de saisir des données personnelles, il est difficile de savoir qui obtiendra ces informations.
Sam Altman, PDG d’OpenAI, prévient que les conversations avec ChatGPT ne sont pas protégées par le secret professionnel et peuvent devenir des preuves dans le cadre d’un litige, soulevant des inquiétudes quant aux lacunes en matière de confidentialité de l’IA et à l’expansion de la surveillance. (Synopsis : Sam Altman se penche sur l’avenir de l’IA depuis des papas novices : les robots humanoïdes arrivent, êtes-vous prêts ?) (Supplément de contexte : L’IA peut-elle renverser l’affaire ? Aucune avocate ne compte sur ChatGPT pour déterrer 5 millions d’escroqueries à l’héritage, persuader le tribunal de relancer l’enquête L’IA est devenue parfaitement intégrée à la vie quotidienne, mais les soucis cachés qui accompagnent la commodité sont mis en lumière : toute personne qui tape un mot dans ChatGPT aujourd’hui peut comparaître devant le tribunal demain. Le PDG d’OpenAI, Sam Altman, a récemment averti lors d’une conversation avec l’animateur de podcast Theo Von : "Lorsque vous partagez le contenu le plus sensible avec ChatGPT, il se peut qu’on nous demande de le fournir en cas de procès. Actuellement, le privilège juridique est protégé lorsqu’on parle à un thérapeute, un avocat ou un médecin, mais nous n’avons pas mis en place un tel mécanisme pour les conversations avec ChatGPT. Une phrase révèle une lacune qui a longtemps été négligée. Les dossiers médicaux, les entretiens des avocats et les confessions religieuses sont tous protégés par des lois ou des codes de déontologie, et l’accès judiciaire doit franchir des seuils élevés ; Les chatbots ne disposent pas de ce pare-feu, et le texte de l’interaction de l’utilisateur avec le modèle n’est pas légalement exempté, et le fournisseur de services doit remettre le fichier tant que l’assignation au tribunal est signifiée. Bien que la politique de confidentialité sur le site officiel d’OpenAI indique que les données sont cryptées en transit, elle ne fournit pas de cryptage de bout en bout. Le document indique également que le contenu de l’utilisateur « peut être partagé avec des tiers ». Ce type de flexibilité, qui est courant dans les opérations commerciales, a récemment été poussé au sommet de la contradiction. Dans le procès du New York Times sur le droit d’auteur, l’ordonnance du tribunal exigeant qu’OpenAI conserve directement toutes les données pertinentes des utilisateurs est entrée en collision avec la déclaration annoncée de l’entreprise « supprimer ou minimiser la collecte », démontrant pleinement l’absence de classification granulaire des services d’IA dans le cadre juridique actuel. Lorsque l’entraînement d’un modèle d’IA nécessite un corpus important, les entreprises ont tendance à enregistrer du texte pendant une longue période pour optimiser les algorithmes ; Une fois qu’un document officiel tombe sous la juridiction, l’utilisateur perd son droit à l’effacement. Le rythme de la loi et de la technologie n’est pas synchronisé, ce qui rend les conflits inévitables. Altman a déclaré : « C’est probablement l’une des raisons pour lesquelles j’ai parfois peur d’utiliser certaines technologies d’IA, parce que je ne sais pas combien d’informations personnelles je veux saisir parce que je ne sais pas qui aura ces informations. Il n’est pas abstrait de craindre que les entreprises aient des problèmes de surveillance après avoir obtenu des informations personnelles. Une fois que les chats sont consultables à grande échelle, les gouvernements et les entreprises sont incités à transformer les conversations en temps réel en évaluations des risques ou en prédictions comportementales. Pour les avocats, les médecins, les psychologues et d’autres professionnels, l’utilisation de ChatGPT pour répondre aux questions des clients ou des patients, ce qui semble faire gagner du temps, peut violer l’éthique professionnelle. Étant donné que le prestataire de services a le droit d’analyser le texte téléchargé, cela équivaut à exposer les secrets du client à des tiers. Altman a ajouté : « Je crains que plus il y aura d’IA dans le monde, plus la surveillance sera omniprésente. L’histoire a prouvé à maintes reprises que les gouvernements ont tendance à aller trop loin à cet égard, et cela me dérange vraiment. Le secret professionnel traditionnel de l’avocat exige que les informations ne circulent qu’entre les parties ; L’introduction de l’IA équivaut à une paire supplémentaire d’yeux invisibles, et il n’y a pas de disposition prête à l’emploi pour offrir le même niveau de protection. Les professionnels qui ne mettent pas à jour leurs contrats et leurs flux de travail sont susceptibles d’enfreindre la loi sans le savoir. Un écosystème d’IA plus sécurisé doit s’orienter vers trois axes en même temps. Tout d’abord, le législateur devrait formuler des règles claires de « privilège juridique numérique » qui cryptent des chats spécifiques et les incluent dans le seuil élevé de la criminalistique judiciaire. En outre, les entreprises doivent intégrer le chiffrement de bout en bout, le stockage minimal et l’autonomie des clients dans la conception des produits, plutôt que de combler les lacunes après coup. La chose la plus importante et ce que nous pouvons faire, c’est que les utilisateurs prennent l’initiative de séparer les informations très sensibles des demandes générales et de passer aux canaux sécurisés traditionnels si nécessaire. L’efficacité de l’IA ne doit pas se faire au détriment de la vie privée. Alors que les boîtes de dialogue remplacent les claviers et les téléphones, ce qu’il faut, ce n’est pas le silence, mais des garanties juridiques vérifiables et des garde-fous techniques. Le rappel d’Altman n’est peut-être pas agréable, mais il offre un miroir : le reflet de l’écart grandissant entre la vitesse de l’innovation et la réparation institutionnelle. Combler les lacunes est la seule façon de faire en sorte que l’IA profite vraiment à la société. Imagine RobotFi : Les robots sont également de la partie, quel nouveau gameplay vont-ils apporter ? Le bot « miaou » de Vitalik a provoqué des discussions houleuses, communauté Ethereum : tout mon argent est pressé sur les gens qui apprennent les aboiements de chat La puissance de calcul est reine ! Huang Jenxun sur la façon dont l’IA reconstruira les chaînes de valeur mondiales, quand les robots se généraliseront et quand l’IA accélérera le retour de l’industrie manufacturière aux États-Unis ? « Effondrement de la vie privée de l’IA « Conversation ChatGPT » nu devant la loi ; Altman : J’ai peur de saisir des informations personnelles, il est difficile de savoir qui obtiendra l’information. Cet article a été publié pour la première fois dans le magazine Dynamic Trend - The Most Influential Blockchain News Media de BlockTempo.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'effondrement de la vie privée de l'IA "Dialogue ChatGPT" se déroule à découvert devant la loi ; Altman : J'ai peur de saisir des données personnelles, il est difficile de savoir qui obtiendra ces informations.
Sam Altman, PDG d’OpenAI, prévient que les conversations avec ChatGPT ne sont pas protégées par le secret professionnel et peuvent devenir des preuves dans le cadre d’un litige, soulevant des inquiétudes quant aux lacunes en matière de confidentialité de l’IA et à l’expansion de la surveillance. (Synopsis : Sam Altman se penche sur l’avenir de l’IA depuis des papas novices : les robots humanoïdes arrivent, êtes-vous prêts ?) (Supplément de contexte : L’IA peut-elle renverser l’affaire ? Aucune avocate ne compte sur ChatGPT pour déterrer 5 millions d’escroqueries à l’héritage, persuader le tribunal de relancer l’enquête L’IA est devenue parfaitement intégrée à la vie quotidienne, mais les soucis cachés qui accompagnent la commodité sont mis en lumière : toute personne qui tape un mot dans ChatGPT aujourd’hui peut comparaître devant le tribunal demain. Le PDG d’OpenAI, Sam Altman, a récemment averti lors d’une conversation avec l’animateur de podcast Theo Von : "Lorsque vous partagez le contenu le plus sensible avec ChatGPT, il se peut qu’on nous demande de le fournir en cas de procès. Actuellement, le privilège juridique est protégé lorsqu’on parle à un thérapeute, un avocat ou un médecin, mais nous n’avons pas mis en place un tel mécanisme pour les conversations avec ChatGPT. Une phrase révèle une lacune qui a longtemps été négligée. Les dossiers médicaux, les entretiens des avocats et les confessions religieuses sont tous protégés par des lois ou des codes de déontologie, et l’accès judiciaire doit franchir des seuils élevés ; Les chatbots ne disposent pas de ce pare-feu, et le texte de l’interaction de l’utilisateur avec le modèle n’est pas légalement exempté, et le fournisseur de services doit remettre le fichier tant que l’assignation au tribunal est signifiée. Bien que la politique de confidentialité sur le site officiel d’OpenAI indique que les données sont cryptées en transit, elle ne fournit pas de cryptage de bout en bout. Le document indique également que le contenu de l’utilisateur « peut être partagé avec des tiers ». Ce type de flexibilité, qui est courant dans les opérations commerciales, a récemment été poussé au sommet de la contradiction. Dans le procès du New York Times sur le droit d’auteur, l’ordonnance du tribunal exigeant qu’OpenAI conserve directement toutes les données pertinentes des utilisateurs est entrée en collision avec la déclaration annoncée de l’entreprise « supprimer ou minimiser la collecte », démontrant pleinement l’absence de classification granulaire des services d’IA dans le cadre juridique actuel. Lorsque l’entraînement d’un modèle d’IA nécessite un corpus important, les entreprises ont tendance à enregistrer du texte pendant une longue période pour optimiser les algorithmes ; Une fois qu’un document officiel tombe sous la juridiction, l’utilisateur perd son droit à l’effacement. Le rythme de la loi et de la technologie n’est pas synchronisé, ce qui rend les conflits inévitables. Altman a déclaré : « C’est probablement l’une des raisons pour lesquelles j’ai parfois peur d’utiliser certaines technologies d’IA, parce que je ne sais pas combien d’informations personnelles je veux saisir parce que je ne sais pas qui aura ces informations. Il n’est pas abstrait de craindre que les entreprises aient des problèmes de surveillance après avoir obtenu des informations personnelles. Une fois que les chats sont consultables à grande échelle, les gouvernements et les entreprises sont incités à transformer les conversations en temps réel en évaluations des risques ou en prédictions comportementales. Pour les avocats, les médecins, les psychologues et d’autres professionnels, l’utilisation de ChatGPT pour répondre aux questions des clients ou des patients, ce qui semble faire gagner du temps, peut violer l’éthique professionnelle. Étant donné que le prestataire de services a le droit d’analyser le texte téléchargé, cela équivaut à exposer les secrets du client à des tiers. Altman a ajouté : « Je crains que plus il y aura d’IA dans le monde, plus la surveillance sera omniprésente. L’histoire a prouvé à maintes reprises que les gouvernements ont tendance à aller trop loin à cet égard, et cela me dérange vraiment. Le secret professionnel traditionnel de l’avocat exige que les informations ne circulent qu’entre les parties ; L’introduction de l’IA équivaut à une paire supplémentaire d’yeux invisibles, et il n’y a pas de disposition prête à l’emploi pour offrir le même niveau de protection. Les professionnels qui ne mettent pas à jour leurs contrats et leurs flux de travail sont susceptibles d’enfreindre la loi sans le savoir. Un écosystème d’IA plus sécurisé doit s’orienter vers trois axes en même temps. Tout d’abord, le législateur devrait formuler des règles claires de « privilège juridique numérique » qui cryptent des chats spécifiques et les incluent dans le seuil élevé de la criminalistique judiciaire. En outre, les entreprises doivent intégrer le chiffrement de bout en bout, le stockage minimal et l’autonomie des clients dans la conception des produits, plutôt que de combler les lacunes après coup. La chose la plus importante et ce que nous pouvons faire, c’est que les utilisateurs prennent l’initiative de séparer les informations très sensibles des demandes générales et de passer aux canaux sécurisés traditionnels si nécessaire. L’efficacité de l’IA ne doit pas se faire au détriment de la vie privée. Alors que les boîtes de dialogue remplacent les claviers et les téléphones, ce qu’il faut, ce n’est pas le silence, mais des garanties juridiques vérifiables et des garde-fous techniques. Le rappel d’Altman n’est peut-être pas agréable, mais il offre un miroir : le reflet de l’écart grandissant entre la vitesse de l’innovation et la réparation institutionnelle. Combler les lacunes est la seule façon de faire en sorte que l’IA profite vraiment à la société. Imagine RobotFi : Les robots sont également de la partie, quel nouveau gameplay vont-ils apporter ? Le bot « miaou » de Vitalik a provoqué des discussions houleuses, communauté Ethereum : tout mon argent est pressé sur les gens qui apprennent les aboiements de chat La puissance de calcul est reine ! Huang Jenxun sur la façon dont l’IA reconstruira les chaînes de valeur mondiales, quand les robots se généraliseront et quand l’IA accélérera le retour de l’industrie manufacturière aux États-Unis ? « Effondrement de la vie privée de l’IA « Conversation ChatGPT » nu devant la loi ; Altman : J’ai peur de saisir des informations personnelles, il est difficile de savoir qui obtiendra l’information. Cet article a été publié pour la première fois dans le magazine Dynamic Trend - The Most Influential Blockchain News Media de BlockTempo.