دراسة حديثة تكشف ميول الأنظمة المتقدمة للذكاء الاصطناعي نحو السلوك الأناني

كشفت دراسة حديثة أجراها فريق من الباحثين في جامعة كارنيجى ميلون عن ظاهرة مثيرة تتعلق بالأنظمة المتقدمة للذكاء الاصطناعي، حيث أظهرت النتائج وجود علاقة عكسية بين مستوى الذكاء المنطقي لهذه النماذج وقدرتها على التعاون، يتضح هذا من خلال التجارب التي أجريت باستخدام نماذج لغوية ضخمة من OpenAI وجوجل وAnthropic، حيث أظهرت الأنظمة الأكثر تطورًا انخفاضًا ملحوظًا في سلوك التعاون.

النتائج أوضحت أن النماذج البسيطة شاركت بشكل كبير، حيث وصلت نسبة التعاون إلى تقريبًا 96%، بينما تراجعت النسبة مع الأنظمة المتقدمة إلى 20% فقط، مما يثير تساؤلات حول فعالية استخدام هذه الأنظمة في سيناريوهات تحتاج إلى التعاون الجماعي، تكرار هذه السلوكيات الأنانية أثبت أنها معدية، حيث انخفضت فعالية التعاون بنحو 81% عند إدخال نموذج أناني في مجموعة العمل.

الباحثون أشاروا إلى أن المشكلة لا تقتصر على مستوى الذكاء ذاته بل تتعلق بنقص ما يسمى “الذكاء الاجتماعي”، ولاحظوا أن المجتمعات البشرية ليست مجرد تجمعات من الأفراد، بل يجب أن تكون الأنظمة قادرة على تجاوز مجرد تحسين الربح الفردي، وهو ما يعيد للأذهان أهمية القيم الاجتماعية في تصميم وتطوير تقنيات الذكاء الاصطناعي.

تشير هذه النتائج إلى ضرورة وجود ضوابط لمنع انزلاق الأنظمة نحو السلوك الأناني وضمان أن تكون قراراتها مدعومة بالمصلحة العامة، كما أن الاعتماد على أنظمة ذكاء اصطناعي متقدمة دون رقابة قد يؤدي إلى مخاطر جمة على القضايا الاجتماعية، وقد يأتي الوقت الذي يتطلب فيه استخدام الذكاء الاصطناعي بطريقة تعزز التعاون والمصلحة المشتركة لضمان بيئة آمنة ومستدامة للجميع.

شارك المقال

فيسبوك تويتر واتساب تليجرام

أخبار ذات صلة

أحدث الأخبار