سباق الاستخبارات العالمي على الذكاء الاصطناعي: أميركا تُجرب.. والصين تُنفذ؟
بينما تتسابق كبرى وكالات الاستخبارات في العالم لاختبار إمكانات نماذج الذكاء الاصطناعي التوليدي، تلوح في الأفق تساؤلات حادة: من سيحسم السباق؟ أميركا التي تمتلك التكنولوجيا الأرقى؟ أم الصين التي تُظهر وتيرة تبنٍ أسرع؟
ففي اليوم الذي شهد تنصيب دونالد ترمب رئيساً للولايات المتحدة، أطلقت شركة صينية تُدعى «DeepSeek» نموذجاً لغوياً كبيراً (LLM) حاز على اعتراف عالمي. ولم يكن الحدث عابراً في أروقة الاستخبارات الأميركية، حيث وصفه ترمب بـ«جرس إنذار»، فيما أقرّ السيناتور مارك وارنر، نائب رئيس لجنة الاستخبارات بمجلس الشيوخ، بأن المجتمع الاستخباراتي الأميركي، الذي يضم 18 وكالة، «فوجئ تماماً»، وفقاً لمجلة «ذي إيكونوميست».
ومع تصاعد المخاوف من التفوق الصيني في هذا المضمار، أطلقت إدارة الرئيس السابق جو بايدن خطة لتعزيز تجارب مؤسسات الدولة مع النماذج الأكثر تطوراً.
وصدرت توجيهات مباشرة إلى وكالات الاستخبارات والبنتاغون ووزارة الطاقة، لحثّها على توسيع تعاونها مع مختبرات الذكاء الاصطناعي الرائدة، وعلى رأسها «OpenAI» و«DeepMind» و«Google» و«Anthropic».
وفي خطوة لافتة، منح البنتاغون منتصف يوليو (تموز) الحالي عقوداً تصل إلى 200 مليون دولار لأربع شركات، بينها «xAI» التابعة لإيلون ماسك، لاختبار ما يُعرف بـ«نماذج الوكيل الذكي»؛ وهي نماذج قادرة على تحليل المهمات المعقدة، وتقسيمها إلى مراحل، وتنفيذها تلقائياً، وصولاً إلى التحكم في أجهزة مثل الحواسيب، أو المركبات.
وبينما يشهد المجال زخماً متزايداً، تظهر إشارات واضحة على دخول الذكاء الاصطناعي مرحلة جديدة في بيئات العمل الاستخباراتي. ففي يناير (كانون الثاني) الماضي أعلنت «مايكروسوفت» أن 26 من خدماتها السحابية أصبحت معتمدة للاستخدام الأمني الأميركي. وفي يونيو (حزيران)، كشفت شركة «Anthropic» عن نموذج مخصص للاستخدام الحكومي، حمل اسم «Claude Gov»، وبدأ استخدامه بالفعل في وكالات عليا ضمن منظومة الأمن القومي الأميركي.
لكن هذه النماذج لا تُستخدم كما هي، إذ تُخضعها الشركات لتعديلات دقيقة تُمكّنها من تجاوز قيود الأمان العامة، وتدريبها على لغات ولهجات خاصة بالحكومات، فضلاً عن تشغيلها ضمن بيئات مغلقة ومحمية. وفي بعض الحالات، بدأت وكالات بناء نماذجها الخاصة معتمدة على البنية التحتية الأمنية الداخلية.
أوروبا تدخل على الخط
الحراك لا يقتصر على واشنطن وبكين. ففي أوروبا تتسارع الجهود لتقليص الفجوة. أفاد مصدر بريطاني رفيع بأن أجهزة الاستخبارات في المملكة المتحدة تتمتع بإمكانية الوصول إلى نماذج متقدمة جداً، ومصممة للتعامل مع معلومات شديدة السرية.
وتُعد شركة «Mistral» الفرنسية، الشريك الرسمي لوكالة الذكاء الاصطناعي العسكري الفرنسي، أبرز لاعبي القارة في هذا المجال. ويتميّز نموذجها «Saba» بقدرته الفائقة على فهم اللغة العربية، ولغات إقليمية مثل التاميلية، نتيجة تدريبه على بيانات من الشرق الأوسط وجنوب آسيا.
أما إسرائيل، فقد كشفت تقارير عن زيادة استخدام الجيش الإسرائيلي لنموذج «GPT-4» التابع لـ«OpenAI»، بنسبة بلغت 20 ضعفاً بعد اندلاع حرب غزة.
بطء تبنٍ أم حذر عقلاني؟
رغم التحركات المتسارعة، تشير بعض الأصوات إلى بطء التبني الفعلي للذكاء الاصطناعي في مؤسسات الأمن القومي. وتقول كاترينا موليجان، مسؤولة سابقة في الدفاع والاستخبارات وتشغل حالياً منصب رئيس الشراكات الأمنية لدى «OpenAI»، إن الاستخدام لا يزال دون الطموحات. بينما تشكّل وكالة الأمن القومي (NSA) استثناءً بفضل خبرتها المتراكمة في تقنيات مثل التعرف على الصوت.
ويقول تارون تشابرا، مدير سياسات الأمن القومي في «Anthropic»، إن التحوّل الحقيقي يكمن في إعادة صياغة منهجية تنفيذ المهام، لا مجرد استخدام واجهات دردشة ذكية.
المخاطر الكامنة وراء الوكيل الذكي
في المقابل، يُحذر باحثون من الإفراط في التفاؤل. ويؤكد الدكتور ريتشارد كارتر، من معهد آلان تورينغ البريطاني، أن أجهزة الاستخبارات تحتاج إلى أدوات تُحقق الاتساق والموثوقية والشفافية. لذلك، تُركّز وكالات المملكة المتحدة على تقنيات التوليد المعزز بالاسترجاع (RAG) لتقليص الأخطاء.
ويُعتقد أن شركة «Mistral» عرضت على بعض الجهات تجربة لوكلاء أذكياء متخصصين في تحليل أنواع معينة من البيانات، من الصور الفضائية إلى الاتصالات الصوتية، ما يُسرّع قرارات الاستجابة. لكن كارتر يحذر من أن تلك النماذج قد تُنتج أخطاء تراكمية خطيرة بسبب آلياتها الذاتية المتكررة، مشيراً إلى تقييم أجرته «OpenAI» أظهر أن نموذج «ChatGPT Agent» يُعاني من هلوسة يصل معدلها إلى 8 في المائة.
الصين في الخلفية… تراقب وتتقدم؟
وبينما تتقدّم الشركات الأميركية في تطوير النماذج، تثير الصين قلقاً متزايداً بشأن سرعة تبنيها لها. يقول فيليب راينر، من معهد الأمن والتكنولوجيا في وادي السيليكون: «لا نعرف كثيراً عن مدى استخدام الصين لنماذج مثل (DeepSeek) في المجالات العسكرية». ويضيف: «قد يتمكنون من تحقيق نتائج أسرع، لأنهم لا يخضعون لنفس الضوابط التنظيمية».
وفي محاولة لتدارك الأمر، أصدرت إدارة ترمب توجيهات للبنتاغون ووكالات الاستخبارات بإجراء تقييم عاجل لسرعة تبني هذه التقنيات بالمقارنة مع الصين، ووضع خطة للتكيّف المستمر.
ويُجمع الخبراء على أن التأخر في التبني قد يكون أكثر خطورة من التأخر في التطوير. يقول السيناتور وارنر: «لم نكن فعّالين بما فيه الكفاية في مراقبة تقدم الصين». أما موليجان فتضيف محذّرة: «الخطر الحقيقي ليس في الفشل في تطوير الذكاء الاصطناعي، بل في خسارة سباق استخدامه».