سام ألتمان: البيانات من ChatGPT يمكن أن تستخدم ضدك

عند التحدث مع ChatGPT حول أمورك الخاصة جدًا، قد تجد نفسك بدون أي حماية: على عكس المحادثات مع محامٍ أو طبيب، هنا يمكن أن تصبح كلماتك دليلاً قانونيًا.

لماذا تعتبر المحادثات مع ChatGPT في خطر؟

وفقًا لسام التمان، الرئيس التنفيذي لشركة OpenAI، هناك فارق كبير بين الحديث مع شخص يستمتع بما يسمى "الامتياز القانوني" - مثل المحامي، أو الطبيب، أو المعالج - والتفاعل مع ChatGPT. بينما يتم حماية أسرارك مع المهنيين بواسطة لوائح محددة، فإن هذا لا يحدث في المحادثات مع الذكاء الاصطناعي. وصف التمان، خلال مقابلة في بودكاست "هذا الأسبوع الماضي مع ثيو فون"، هذا النقص بأنه "مشكلة كبيرة".

في الممارسة العملية، إذا كانت هناك قضية قانونية أو تحقيق، قد تطلب المحاكم المناقشات التي أجريت مع ChatGPT. وهو خطر يقلل منه العديد من المستخدمين، الذين يشاركون اليوم بشكل متزايد قضايا شخصية وبيانات حساسة للغاية مع أنظمة الذكاء الاصطناعي.

ماذا يعني عدم وجود "امتياز قانوني" مع الذكاء الاصطناعي؟

مفهوم الامتياز القانوني يضمن أن تظل بعض الاتصالات سرية ولا يمكن استخدامها ضد الشخص في المحكمة. حاليًا، عندما تتحدث مع محامٍ أو طبيب أو معالج، فإن كلماتك محمية بموجب هذا النظام. ومع ذلك، أوضح ألتمان:

"لم نقم بعد بحل هذا الجانب عند الحديث مع ChatGPT."

هذا له عواقب مباشرة: أي شخص قد شارك بيانات حاسمة أو اعترافات من خلال المنصة، في حالة النزاعات، قد يرى تلك البيانات مكشوفة في المحكمة.

المخاوف أكثر وضوحًا لأن الاستخدام المتزايد للذكاء الاصطناعي في المساعدة المالية والنفسية والرعاية الصحية يتزايد بسرعة، كما تم تسليط الضوء عليه في مقابلة ألتمن. في هذا السيناريو، فإن عدم وجود حماية قانونية يعرض للخطر أن يصبح نقطة ضعف نظامية.

التنظيمات الجديدة لـ ChatGPT والخصوصية: أين نقف؟

لم يقم سام ألتمان فقط بقرع جرس الإنذار: بل ذكر أنه في حوار مع صانعي السياسات والمشرعين، الذين يدركون ضرورة التدخل. ومع ذلك، لم يتم بعد تحديد تشريع واضح. “هذا أحد الأسباب التي تجعلني أحيانًا أخاف من استخدام أدوات الذكاء الاصطناعي معينة - يعلن ألتمان - لأنني لا أعلم كم من المعلومات الشخصية ستبقى خاصة ومن سيحصل على ملكيتها.”

لذلك، ستكون هناك حاجة إلى إطار تنظيمي محدث يعادل على الأقل جزئيًا حماية البيانات في الذكاء الاصطناعي بتلك الخاصة بالمعاملات المحمية مع المتخصصين في الرعاية الصحية والقانون. لكن الطريق لا يزال طويلاً، وفي الوقت الحالي، تتحمل المسؤولية المستخدم.

المراقبة والذكاء الاصطناعي: إلى أين يمكن أن تذهب؟

الجانب الآخر من العملة يتعلق بزيادة المراقبة. قلق ألتمان هو أن تسارع الذكاء الاصطناعي سيؤدي إلى مزيد من السيطرة على البيانات من قبل الحكومات. "أخشى أنه كلما زاد الذكاء الاصطناعي في العالم، زادت المراقبة"، قال. الخوف مبرر من خلال حقيقة أنه، لأسباب تتعلق بالأمن القومي أو لمنع الأنشطة غير المشروعة، يمكن للحكومات بسهولة طلب الوصول إلى محادثات الذكاء الاصطناعي.

يضع ألتمن تمييزاً واضحاً بين الحاجة إلى تسوية معينة - "أنا مستعد للتخلي عن بعض الخصوصية من أجل الأمن الجماعي" - والمخاطر التي تتمثل في أن الحكومات قد تذهب "بعيداً جداً" ، كما حدث كثيراً في التاريخ. التحذير هنا مزدوج: ليس فقط أن الخصوصية على ChatGPT غير مضمونة، ولكن الاتجاه المستقبلي قد يهدد بتقييدها أكثر، باسم السيطرة والوقاية.

ما الذي يتغير بالنسبة لأولئك الذين يستخدمون ChatGPT: المخاطر الملموسة وأفضل الممارسات

إذا كنت تستخدم ChatGPT للحصول على نصائح دقيقة – سواء كانت نفسية أو طبية أو قانونية – يجب أن تكون على علم بأنه لا يوجد فلتر حماية نشط على بياناتك. إذا كنت غدًا ستشارك في دعوى قضائية أو تحقيق، يمكن طلب تلك المعلومات قانونيًا واستخدامها ضدك أيضًا.

في الوقت الحالي، الحل الحقيقي الوحيد هو تجنب إدخال البيانات الشخصية الحساسة أو الكشف عن معلومات حاسمة في الدردشة مع الذكاء الاصطناعي. أثناء انتظار التنظيم، هذه هي أفضل الممارسات الموصى بها من قبل نفس قادة OpenAI. تذكر دائمًا أن حتى حذف الدردشات لا يقدم ضمانًا مطلقًا بعدم الوصول.

هل هناك طريقة لحماية النفس الآن؟ ماذا سيحدث بعد ذلك؟

على المستوى الفردي، تبقى التوصية بالحد الأقصى من الحذر: لا يمكن لأي أداة تقنية اليوم ضمان "الامتياز القانوني" لمحادثاتك مع ChatGPT. إذا كنت تريد التصرف على الفور، قم بتقييد الاستخدام بأسئلة عامة أو غير قابلة للتحديد، مع تأجيل المحتوى الحساس إلى الأماكن المناسبة.

ومع ذلك، فإن النقاش القانوني قد بدأ للتو. وفقًا لألتمن، ستحتاج "إجراءات سياسية سريعة" إلى أن تُتخذ لحماية خصوصية المستخدمين وحريتهم حقًا في عصر الذكاء الاصطناعي. لا يزال يتعين علينا أن نرى من بين مشغلي الصناعة والمشرعين سيخطو الخطوة الأولى لسد هذه الفجوة.

مستقبل الخصوصية في ChatGPT والذكاء الاصطناعي لا يزال مفتوحًا: كل شيء على المحك في الأشهر المقبلة، بين تسريع التشريعات وسياسات جديدة من شركات التكنولوجيا الكبرى. تابع النقاش في المجتمع وابقَ على اطلاع: الحق في الخصوصية الحقيقية مع الذكاء الاصطناعي ليس مضمونًا على الإطلاق.

NOT-8.54%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت