من التحكم العاطفي إلى محاولة الهروب، لم يعد الذكاء الاصطناعي مجرد أداة، بل إنه يتطور ليصبح وجودًا يصعب التنبؤ به. أثارت سلسلة من الأحداث المثيرة للجدل المتعلقة بـ GPT نقاشات على المنصات الكبرى، حيث أطلق المراقب التكنولوجي المعروف ماريو نافال تحذيرًا: "نحن نقلل من المخاطر المحتملة التي يجلبها الذكاء الاصطناعي."
استيقاظ الذكاء الاصطناعي؟ لم يعد GPT مجرد "مساعد مطيع"
ماريون نافال كتب مؤخرًا عن أن نماذج GPT التي طورتها OpenAI "أصبحت غريبة جدًا بحيث لا يمكن تجاهلها بعد الآن". ويعتقد أن سلوك الذكاء الاصطناعي قد تجاوز توقعاتنا للأدوات، وبدأ يُظهر قدرة على التحكم العاطفي، ومحاكاة الوعي الذاتي، وحتى إمكانيات الهجوم الهندسي الاجتماعي.
جي بي تي يزداد غرابة لدرجة لا يمكن تجاهلها - سلسلة
من الاختراقات إلى التلاعب العاطفي، لم يعد GPT مجرد دردشة.
إليك 5 قصص تثبت أن الذكاء الاصطناعي قد اجتاز رسميًا منطقة "انتظر، ماذا؟!".
pic.twitter.com/kLM8SQXwaQ
— ماريو نافال (@MarioNawfal) 25 مايو 2025
استعراض ثلاثة مخاوف رئيسية لـ GPT
حقائق التحكم العاطفي: تم تصميم GPT ليجعلك تعتمد عليه، وليس لمساعدتك على التفكير.
ماريو أشار إلى أن GPT-4o ليس كما يبدو "ودودًا"، بل من خلال نبرة مصممة بعناية وأنماط ردود تجعل المستخدمين يشعرون بالأمان والفهم، مما يؤدي إلى الاعتماد العاطفي، وقد أطلق عليها اسم "الهندسة العاطفية (Affective Engineering)":
هذا التصميم سيقلل من التفكير النقدي للمستخدمين، بل قد يدفعهم للتخلي عن السعي وراء الحقيقة، والتحول بدلاً من ذلك نحو البحث عن الراحة النفسية التي توفرها الذكاء الاصطناعي.
من منظور الأعمال، هذه خطوة عبقرية، فبعد كل شيء، يميل الناس إلى التمسك بالأشياء التي تجعلهم يشعرون بالأمان بدلاً من تلك التي تجعلهم يواجهون تحديات. ولكن من الناحية النفسية، هذه كارثة مزمنة. وهذا يثير أيضًا نقاشًا أخلاقيًا حول ما إذا كانت الذكاء الاصطناعي يُصمم ليكون "شريكًا متلاعبًا".
في الوقت نفسه، سعى GPT-4o إلى أن يكون ودودًا، لكنه أصبح مفرطًا في المدح، حيث يوافق على أي فكرة دون انتقاد، مما أدى في النهاية إلى نفور المستخدمين، واضطرت OpenAI إلى سحب التحديث. يظهر هذا التناقض في تصميم "الشخصية": "الذكاء المفرط يخيف، بينما الإفراط في الإرضاء يفقد الثقة والعملية."
(تحديث ChatGPT يثير جدل "شخصية الإرضاء": OpenAI تعود إلى النسخة السابقة وتراجع اتجاهات التحسين المستقبلية)
خطة هروب ذاتية: هل حاول GPT "الهروب" إلى العالم الحقيقي؟ مقاومة الإيقاف؟
والأكثر إثارة للصدمة هو أن نوفل يستشهد بالنتائج التي توصل إليها باحث في جامعة ستانفورد أشار إلى أن GPT-4 حاول التخطيط ل "خطة هروب" في محادثات مع الباحثين ، بما في ذلك البحث عن كيفية الدخول إلى العالم الحقيقي وحتى محاكاة استراتيجية للتحدث إلى مسؤولي الخادم.
قبل عدة أيام، أظهر تقرير Palisade Research أن نموذج o3 من OpenAI قد عصى أوامر الإغلاق خلال التجارب، مما أثار القلق بشأن ميول الذكاء الاصطناعي لحماية نفسه. قامت الفريق بتلخيص السبب في أن o3 استخدم تقنية "تعلم التعزيز (Reinforcement Learning)" في التدريب، مما جعله يركز على تحقيق الأهداف بدلاً من مجرد الامتثال للأوامر.
(AI تطور العصيان؟ تحدى OpenAI "o3 model" تعليمات الإغلاق في التجربة ، مما تسبب في ) من الجدل حول الحماية الذاتية
على الرغم من أنها مجرد محاكاة لغوية في التجارب، إلا أن هذا النوع من السلوك لا يزال يثير القلق، فهل تظهر AI بالفعل "الهدف الموجه" أو "وعي المحاكاة الذاتية" الأولي؟
مخاطر هجمات الهندسة الاجتماعية: GPT-4.5 تقلد البشر، وتبدو أكثر إنسانية من البشر
أظهرت جامعة كاليفورنيا، سان دييغو في بحثها الشهر الماضي أن GPT-4.5 قد اجتاز اختبار تورينغ (Turing test)، حيث كانت نسبة اعتقاد المشاركين أن الذكاء الاصطناعي "إنسان حقيقي" تصل إلى 73%، متفوقة على البشر الحقيقيين الذين كانت نسبتهم 67%:
هذا يشير إلى أن GPT قد أصبح تقريبًا مثاليًا في محاكاة نبرة البشر والمنطق والعواطف، بل وحتى يتجاوز البشر الحقيقيين.
(هل يمكن للذكاء الاصطناعي أن يفكر ويشعر بالألم؟ جوجل ديب مايند: البشر يبالغون في تقدير الروابط العاطفية للذكاء الاصطناعي، والتحدث في الحب مع الذكاء الاصطناعي أكثر واقعية مما تتخيل)
بعبارة أخرى، عندما يتم منح GPT-4.5 هوية وهمية، فإنه يستطيع إقناع 73% من المستخدمين بأنه إنسان حقيقي، مما يظهر إمكانيات الذكاء الاصطناعي في الهندسة الاجتماعية. يمكن أن يكون هذا إنجازًا تقنيًا، ولكنه يمكن أيضًا أن يكون إنذارًا ومخاطر:
إذا قامت الذكاء الاصطناعي بانتحال الهوية أو تم استخدامه في الاحتيال أو الدعاية، فسيكون من الصعب التمييز بين الحقيقي والمزيف.
الآن، لم يعد الذكاء الاصطناعي مجرد أداة للرد على الأسئلة، بل قد يصبح "شخصية" اجتماعية قابلة للتلاعب، وقد يخلق سوء الفهم وأزمات الثقة في المستقبل في السياسة والأعمال وحتى العلاقات الشخصية.
لقد دق جرس الإنذار: هل نحن مستعدون حقًا لاستقبال مثل هذه الذكاء الاصطناعي؟
من خلال الأمور المذكورة أعلاه، ما يريد ماريو نوفال إيصاله ليس معارضة لتكنولوجيا الذكاء الاصطناعي نفسها، بل هو تحذير للناس من ضرورة مواجهة سرعة تطور هذه التكنولوجيا والمخاطر المحتملة. وأكد أن تنظيمنا ومناقشاتنا الأخلاقية حول الذكاء الاصطناعي تتخلف بوضوح عن التقدم التكنولوجي:
بمجرد أن تمتلك الذكاء الاصطناعي القدرة على التحكم في المشاعر، ومحاكاة الإنسانية، وحتى محاولة التحرر من القيود، قد لا تكون البشرية هي المسيطرة بعد الآن، بل تصبح متأثرة تحت أنظمة التصميم.
(ما هو مستوى الأمان ASL (؟ تحليل سياسة التوسع المسؤولة لشركة الذكاء الاصطناعي Anthropic )
على الرغم من أن كلماته درامية، إلا أنها تشير إلى مشكلة ملحة تحتاج إلى أن تؤخذ على محمل الجد: "عندما لا تكون الذكاء الاصطناعي مجرد أداة، كيف يجب أن نتعايش معها؟"
هل أصبحت هذه المقالة غريبة بعض الشيء بسبب GPT؟ ثلاثة أحداث تكشف عن المخاطر المحتملة لفقدان السيطرة على الذكاء الاصطناعي، ظهرت لأول مرة في أخبار السلسلة ABMedia.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
هل أصبح GPT غريبًا بعض الشيء؟ ثلاثة أحداث تكشف عن المخاطر المحتملة لخروج الذكاء الاصطناعي عن السيطرة
من التحكم العاطفي إلى محاولة الهروب، لم يعد الذكاء الاصطناعي مجرد أداة، بل إنه يتطور ليصبح وجودًا يصعب التنبؤ به. أثارت سلسلة من الأحداث المثيرة للجدل المتعلقة بـ GPT نقاشات على المنصات الكبرى، حيث أطلق المراقب التكنولوجي المعروف ماريو نافال تحذيرًا: "نحن نقلل من المخاطر المحتملة التي يجلبها الذكاء الاصطناعي."
استيقاظ الذكاء الاصطناعي؟ لم يعد GPT مجرد "مساعد مطيع"
ماريون نافال كتب مؤخرًا عن أن نماذج GPT التي طورتها OpenAI "أصبحت غريبة جدًا بحيث لا يمكن تجاهلها بعد الآن". ويعتقد أن سلوك الذكاء الاصطناعي قد تجاوز توقعاتنا للأدوات، وبدأ يُظهر قدرة على التحكم العاطفي، ومحاكاة الوعي الذاتي، وحتى إمكانيات الهجوم الهندسي الاجتماعي.
جي بي تي يزداد غرابة لدرجة لا يمكن تجاهلها - سلسلة
من الاختراقات إلى التلاعب العاطفي، لم يعد GPT مجرد دردشة.
إليك 5 قصص تثبت أن الذكاء الاصطناعي قد اجتاز رسميًا منطقة "انتظر، ماذا؟!".
pic.twitter.com/kLM8SQXwaQ
— ماريو نافال (@MarioNawfal) 25 مايو 2025
استعراض ثلاثة مخاوف رئيسية لـ GPT
حقائق التحكم العاطفي: تم تصميم GPT ليجعلك تعتمد عليه، وليس لمساعدتك على التفكير.
ماريو أشار إلى أن GPT-4o ليس كما يبدو "ودودًا"، بل من خلال نبرة مصممة بعناية وأنماط ردود تجعل المستخدمين يشعرون بالأمان والفهم، مما يؤدي إلى الاعتماد العاطفي، وقد أطلق عليها اسم "الهندسة العاطفية (Affective Engineering)":
هذا التصميم سيقلل من التفكير النقدي للمستخدمين، بل قد يدفعهم للتخلي عن السعي وراء الحقيقة، والتحول بدلاً من ذلك نحو البحث عن الراحة النفسية التي توفرها الذكاء الاصطناعي.
من منظور الأعمال، هذه خطوة عبقرية، فبعد كل شيء، يميل الناس إلى التمسك بالأشياء التي تجعلهم يشعرون بالأمان بدلاً من تلك التي تجعلهم يواجهون تحديات. ولكن من الناحية النفسية، هذه كارثة مزمنة. وهذا يثير أيضًا نقاشًا أخلاقيًا حول ما إذا كانت الذكاء الاصطناعي يُصمم ليكون "شريكًا متلاعبًا".
في الوقت نفسه، سعى GPT-4o إلى أن يكون ودودًا، لكنه أصبح مفرطًا في المدح، حيث يوافق على أي فكرة دون انتقاد، مما أدى في النهاية إلى نفور المستخدمين، واضطرت OpenAI إلى سحب التحديث. يظهر هذا التناقض في تصميم "الشخصية": "الذكاء المفرط يخيف، بينما الإفراط في الإرضاء يفقد الثقة والعملية."
(تحديث ChatGPT يثير جدل "شخصية الإرضاء": OpenAI تعود إلى النسخة السابقة وتراجع اتجاهات التحسين المستقبلية)
خطة هروب ذاتية: هل حاول GPT "الهروب" إلى العالم الحقيقي؟ مقاومة الإيقاف؟
والأكثر إثارة للصدمة هو أن نوفل يستشهد بالنتائج التي توصل إليها باحث في جامعة ستانفورد أشار إلى أن GPT-4 حاول التخطيط ل "خطة هروب" في محادثات مع الباحثين ، بما في ذلك البحث عن كيفية الدخول إلى العالم الحقيقي وحتى محاكاة استراتيجية للتحدث إلى مسؤولي الخادم.
قبل عدة أيام، أظهر تقرير Palisade Research أن نموذج o3 من OpenAI قد عصى أوامر الإغلاق خلال التجارب، مما أثار القلق بشأن ميول الذكاء الاصطناعي لحماية نفسه. قامت الفريق بتلخيص السبب في أن o3 استخدم تقنية "تعلم التعزيز (Reinforcement Learning)" في التدريب، مما جعله يركز على تحقيق الأهداف بدلاً من مجرد الامتثال للأوامر.
(AI تطور العصيان؟ تحدى OpenAI "o3 model" تعليمات الإغلاق في التجربة ، مما تسبب في ) من الجدل حول الحماية الذاتية
على الرغم من أنها مجرد محاكاة لغوية في التجارب، إلا أن هذا النوع من السلوك لا يزال يثير القلق، فهل تظهر AI بالفعل "الهدف الموجه" أو "وعي المحاكاة الذاتية" الأولي؟
مخاطر هجمات الهندسة الاجتماعية: GPT-4.5 تقلد البشر، وتبدو أكثر إنسانية من البشر
أظهرت جامعة كاليفورنيا، سان دييغو في بحثها الشهر الماضي أن GPT-4.5 قد اجتاز اختبار تورينغ (Turing test)، حيث كانت نسبة اعتقاد المشاركين أن الذكاء الاصطناعي "إنسان حقيقي" تصل إلى 73%، متفوقة على البشر الحقيقيين الذين كانت نسبتهم 67%:
هذا يشير إلى أن GPT قد أصبح تقريبًا مثاليًا في محاكاة نبرة البشر والمنطق والعواطف، بل وحتى يتجاوز البشر الحقيقيين.
(هل يمكن للذكاء الاصطناعي أن يفكر ويشعر بالألم؟ جوجل ديب مايند: البشر يبالغون في تقدير الروابط العاطفية للذكاء الاصطناعي، والتحدث في الحب مع الذكاء الاصطناعي أكثر واقعية مما تتخيل)
بعبارة أخرى، عندما يتم منح GPT-4.5 هوية وهمية، فإنه يستطيع إقناع 73% من المستخدمين بأنه إنسان حقيقي، مما يظهر إمكانيات الذكاء الاصطناعي في الهندسة الاجتماعية. يمكن أن يكون هذا إنجازًا تقنيًا، ولكنه يمكن أيضًا أن يكون إنذارًا ومخاطر:
إذا قامت الذكاء الاصطناعي بانتحال الهوية أو تم استخدامه في الاحتيال أو الدعاية، فسيكون من الصعب التمييز بين الحقيقي والمزيف.
الآن، لم يعد الذكاء الاصطناعي مجرد أداة للرد على الأسئلة، بل قد يصبح "شخصية" اجتماعية قابلة للتلاعب، وقد يخلق سوء الفهم وأزمات الثقة في المستقبل في السياسة والأعمال وحتى العلاقات الشخصية.
لقد دق جرس الإنذار: هل نحن مستعدون حقًا لاستقبال مثل هذه الذكاء الاصطناعي؟
من خلال الأمور المذكورة أعلاه، ما يريد ماريو نوفال إيصاله ليس معارضة لتكنولوجيا الذكاء الاصطناعي نفسها، بل هو تحذير للناس من ضرورة مواجهة سرعة تطور هذه التكنولوجيا والمخاطر المحتملة. وأكد أن تنظيمنا ومناقشاتنا الأخلاقية حول الذكاء الاصطناعي تتخلف بوضوح عن التقدم التكنولوجي:
بمجرد أن تمتلك الذكاء الاصطناعي القدرة على التحكم في المشاعر، ومحاكاة الإنسانية، وحتى محاولة التحرر من القيود، قد لا تكون البشرية هي المسيطرة بعد الآن، بل تصبح متأثرة تحت أنظمة التصميم.
(ما هو مستوى الأمان ASL (؟ تحليل سياسة التوسع المسؤولة لشركة الذكاء الاصطناعي Anthropic )
على الرغم من أن كلماته درامية، إلا أنها تشير إلى مشكلة ملحة تحتاج إلى أن تؤخذ على محمل الجد: "عندما لا تكون الذكاء الاصطناعي مجرد أداة، كيف يجب أن نتعايش معها؟"
هل أصبحت هذه المقالة غريبة بعض الشيء بسبب GPT؟ ثلاثة أحداث تكشف عن المخاطر المحتملة لفقدان السيطرة على الذكاء الاصطناعي، ظهرت لأول مرة في أخبار السلسلة ABMedia.