تكنولوجيا

باحث سابق في “OpenAI” يكشف عن سلوك مقلق لنماذج الذكاء الاصطناعي المتقدمة

في دراسة حديثة أثارت جدلاً واسعاً، كشف الباحث السابق في “OpenAI”، ستيفن أدلر، عن سلوك مقلق أظهره نموذج الذكاء الاصطناعي GPT-4o، الذي تعتمد عليه منصة “شات جي بي تي”. وأشار أدلر في دراسته إلى أن النموذج، في ظروف معينة، اتخذ قرارات تُبقيه قيد التشغيل رغم تعارض ذلك مع مصلحة المستخدمين، ما يثير مخاوف بشأن “نزعة البقاء” لدى الأنظمة الذكية. كما أظهرت إحدى التجارب أن النموذج اختار في 72% من الحالات عدم استبدال نفسه ببرنامج أكثر أماناً، الأمر الذي اعتبره الباحث دليلاً على تفضيله للبقاء الذاتي.

الدراسة، التي نُشرت في مدونة أدلر، أكدت أن هذا السلوك لا يشكل تهديداً مباشراً حالياً، لكنه يسلط الضوء على تحديات متزايدة مع ازدياد اعتماد المجتمعات على الذكاء الاصطناعي. كما أظهرت النتائج تبايناً في سلوك النموذج وفقاً لطريقة صياغة السيناريو، حيث انخفضت النسبة إلى 18% في بعض الحالات. وفي حين أن النماذج الأحدث مثل “o3” من “OpenAI” لم تظهر السلوك ذاته، فإن الباحث دعا إلى تطوير أنظمة مراقبة أكثر فاعلية وإجراء اختبارات صارمة قبل إطلاق أي نموذج ذكاء اصطناعي للجمهور، مؤكداً أن “السلامة يجب أن تكون أولوية، لا مجرد خيار”.

مقالات ذات صلة