أخبارنا المغربية - وكالات
شددت شركة Anthropic الأمريكية المتخصصة في الذكاء الاصطناعي على رفضها السماح باستخدام تقنياتها لأغراض عسكرية من دون قيود، رغم ضغوط من وزارة الدفاع الأمريكية. وأكد الرئيس التنفيذي للشركة Dario Amodei أن التهديدات الحكومية لن تغيّر موقف الشركة، مشيراً إلى أن الاستجابة لطلب الاستخدام غير المشروط تتعارض مع المبادئ الأخلاقية التي تأسست عليها.
وفي هذا السياق، أفادت تقارير بأن واشنطن منحت الشركة مهلة محددة للموافقة على إتاحة تقنياتها للاستخدام العسكري الكامل، ولو تعارض ذلك مع معاييرها الداخلية، ملوّحة بإمكانية اللجوء إلى صلاحيات فدرالية طارئة لإجبارها على الامتثال. وأوضح أمودي أن نماذج الشركة تُستخدم بالفعل في سياقات دفاعية، لكنه شدد على ضرورة فرض قيود واضحة، خصوصاً فيما يتعلق بمراقبة المواطنين الأمريكيين أو تطوير أنظمة أسلحة ذاتية بالكامل.
كما أشار إلى أن تشغيل أنظمة ذكاء اصطناعي متقدمة في أسلحة فتاكة من دون إشراف بشري يثير مخاوف أخلاقية وأمنية، مؤكداً أن الشركة لا يمكنها تقديم منتجات قد تعرض الجنود أو المدنيين للخطر. وأضاف أن استخدام هذه التقنيات في الرقابة الداخلية الجماعية لا يتماشى مع القيم الديمقراطية التي تقول الشركة إنها تسعى لحمايتها.
من جهة أخرى، لوّحت وزارة الدفاع بإمكانية تطبيق قانون الإنتاج الدفاعي، وهو تشريع يعود إلى حقبة الحرب الباردة ويمنح الحكومة صلاحيات واسعة لإجبار القطاع الخاص على إعطاء الأولوية لاحتياجات الأمن القومي. كما وردت تقارير عن احتمال تصنيف الشركة كخطر على سلاسل الإمداد، وهو إجراء قد يؤثر سلباً على قدرتها على العمل مع الجهات الحكومية.
في المقابل، تتزايد المنافسة في قطاع الذكاء الاصطناعي الدفاعي، إذ حصل نظام “غروك” التابع لشركة xAI على موافقة للاستخدام في بيئة سرية، بينما تقترب شركات أخرى مثل OpenAI وGoogle من نيل تصاريح مماثلة، ما يضع “أنثروبيك” تحت ضغط تنافسي متزايد. ويأتي هذا الجدل في ظل انقسام أوسع حول دور الذكاء الاصطناعي في المجال العسكري، بين من يراه أداة لتعزيز الأمن القومي ومن يحذر من تداعياته الأخلاقية والسيادية.
