أخبارنا المغربية - وكالات
اندلعت مواجهة غير مسبوقة داخل دوائر صنع القرار في واشنطن، بعدما أعلن وزير الدفاع الأمريكي بيت هيغسيث إنهاء تعاملات البنتاغون مع شركة Anthropic المتخصصة في الذكاء الاصطناعي، مستنداً إلى قانون يتعلق بمخاطر سلاسل التوريد الأجنبية. ووصفت الخطوة بأنها سابقة في قطاع التكنولوجيا، إذ تم إدراج شركة أمريكية ضمن تصنيف أمني يترتب عليه قيود واسعة على التعاقدات الحكومية.
وجاء القرار وسط اتهامات من الرئيس Donald Trump ووزارة الدفاع للشركة بتعريض الأمن القومي للخطر، بعد رفض رئيسها التنفيذي داريو أمودي إتاحة تقنيات “Claude” للاستخدام العسكري غير المشروط، خاصة في تطبيقات مثل المراقبة الجماعية أو أنظمة الطائرات المسيّرة ذاتية التشغيل. في المقابل، أعلنت الشركة، التي تتخذ من سان فرانسيسكو مقراً لها، عزمها مقاضاة الحكومة، معتبرة القرار غير سليم قانونياً.
وتأسست أنثروبيك عام 2021 على يد فريق من الباحثين السابقين في OpenAI، من بينهم داريو ودانييلا أمودي، مع تركيز معلن على ما يُعرف بـ“الذكاء الاصطناعي الدستوري”، وهو نهج يهدف إلى برمجة النماذج وفق مبادئ أخلاقية واضحة لضمان أن تكون المخرجات مفيدة وغير ضارة. كما تعمل الشركة بصيغة “شركة ذات نفع عام”، ما يُلزمها قانونياً بمراعاة الأثر الاجتماعي إلى جانب تحقيق الأرباح.
وبحسب تقارير متخصصة، فإن قرار البنتاغون يعني إلغاء عقود مباشرة قد تصل قيمتها إلى 200 مليون دولار، ومنح الوكالات الحكومية مهلة ستة أشهر للتخلص التدريجي من تقنيات “Claude” المدمجة في الأنظمة العسكرية. كما سارعت OpenAI بقيادة Sam Altman إلى توسيع تعاونها مع وزارة الدفاع، في خطوة اعتبرها مراقبون تعزيزاً لموقعها التنافسي.
وتحظى أنثروبيك باهتمام واسع بفضل قدرات نموذجها “Claude”، الذي يتميز بنافذة سياق كبيرة لمعالجة كميات ضخمة من البيانات، وأداء قوي في البرمجة وتحليل الوثائق المعقدة، إضافة إلى آليات تهدف إلى تقليل “الهلوسة” والاعتراف بعدم اليقين في الحالات الحساسة. كما عززت الشركة حضورها عبر شراكات استراتيجية مع Amazon Web Services، وسط توقعات بارتفاع إيراداتها بشكل كبير خلال السنوات المقبلة.
ويرى محللون أن القضية تتجاوز خلافاً تجارياً، لتفتح نقاشاً أوسع حول حدود استخدام الذكاء الاصطناعي في المجال العسكري، ودور الشركات الخاصة في وضع معايير السلامة والأخلاقيات في هذا القطاع سريع التطور.
