تكنولوجيا

بسبب مخاطرها الكارثية .. “ميتا” قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي

تعهد مارك زوكربيرغ، الرئيس التنفيذي لشركة “ميتا”، بجعل الذكاء الاصطناعي العام (AGI) متاحاً للعامة في المستقبل، ولكنه أكد أن الشركة لن تطلق أي نظام ذكاء اصطناعي متقدم إذا كانت هناك مخاوف من خطر أو ضرر. في وثيقة جديدة، حددت ميتا نوعين من الأنظمة الخطرة: “عالية الخطورة” و”فائقة الخطورة”. الأولى قد تُستخدم في هجمات يمكن السيطرة عليها نسبيا، بينما الثانية قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها.

تتضمن المخاطر المحتملة اختراق أنظمة التشفير أو نشر أسلحة بيولوجية. وبناءً على تقييمات من باحثين داخليين وخارجيين، ستقيد ميتا الأنظمة “عالية الخطورة” داخليًا حتى يتم تقليل المخاطر، بينما ستمنع تطوير “الأنظمة فائقة الخطورة”.

تسعى ميتا من خلال هذا الإطار إلى تحقيق توازن بين الفوائد والمخاطر وتوفير الذكاء الاصطناعي بطريقة آمنة، مع مقارنة استراتيجيتها بجهود الشركات الأخرى مثل “ديب سيك”.

مقالات ذات صلة