سباق خفي بين عمالقة الذكاء الاصطناعي يعيد رسم حدود الأمن السيبراني
أخبارنا المغربية - وكالات
دخلت كبرى شركات الذكاء الاصطناعي مرحلة جديدة من التنافس، بعدما كشفت كل من OpenAI وAnthropic عن نماذج متقدمة موجهة للأمن السيبراني، في تطور يعكس تحول هذه التقنيات إلى عنصر حاسم في معادلة الدفاع والهجوم الرقمي.
أعلنت "أنثروبيك" في 7 أبريل عن نموذجها "Claude Mythos" ضمن مشروع "Glass Wing"، وهو برنامج يخضع لرقابة صارمة ويتيح استخدام النموذج بشكل محدود لأغراض الدفاع السيبراني. وبعدها بأيام، أطلقت "OpenAI" نموذجها "GPT-5.4-Cyber"، ما يعكس تسارعاً واضحاً في وتيرة الابتكار داخل هذا المجال الحساس، ويطرح في المقابل تساؤلات حول طبيعة هذه الأدوات وحدود استخدامها.
ويعتمد نموذج "GPT-5.4-Cyber" على نسخة معدلة من "GPT-5.4"، مع تخفيف القيود التقليدية بهدف تمكين المختصين من تحليل التهديدات بشكل أعمق. وتشمل أبرز قدراته دعم الهندسة العكسية للبرمجيات، وتقليل قيود الرفض لإتاحة تحليل أدق، إلى جانب اعتماد مستويات تحقق متعددة. ورغم هذا "الانفتاح المحسوب"، يظل الوصول إلى النموذج مقيداً ضمن برنامج Trusted Access for Cybersecurity، الذي تسعى الشركة إلى توسيعه ليشمل خبراء وفرق حماية البنية التحتية.
في المقابل، تتبنى "أنثروبيك" نهجاً أكثر تحفظاً مع نموذج "Claude Mythos"، الذي أظهر خلال الاختبارات قدرة على اكتشاف ثغرات غير معروفة وربطها ضمن سلاسل استغلال متكاملة قد تؤدي إلى السيطرة الكاملة على الأنظمة. هذه القدرات دفعت الشركة إلى تقييد استخدامه بشكل صارم، حيث يقتصر على عدد محدود من الشركاء الكبار، من بينهم شركات تكنولوجية عالمية ومؤسسات مسؤولة عن البنية التحتية الرقمية.
ويعكس هذا التباين اختلافاً في الرؤية بين الشركتين، إذ تراهن "OpenAI" على توسيع الوصول التدريجي لتعزيز الدفاع السيبراني، بينما تحذر "Anthropic" من مخاطر الاستخدام المزدوج لهذه الأدوات، التي يمكن أن تُستخدم للحماية كما يمكن أن تتحول إلى وسائل اختراق متقدمة.
وتؤكد هذه التطورات أن الذكاء الاصطناعي بات لاعباً رئيسياً في مجال الأمن السيبراني، بفضل قدرته على اكتشاف الثغرات بسرعة عالية وتحليل الهجمات المعقدة، ما يفتح الباب أمام مرحلة جديدة تتداخل فيها فرص الحماية مع تحديات المخاطر الرقمية المتصاعدة.
