أخبارنا المغربية - وكالات
تشهد أوساط التكنولوجيا تصاعداً في الجدل عقب تقارير عن اجتماعات جمعت قادة عسكريين أمريكيين بمسؤولين تنفيذيين في شركة Anthropic، في إطار مناقشات تتعلق بإمكانية دمج نموذج “كلود” المتقدم في تطبيقات عسكرية. وبحسب ما أوردته صحيفة The Guardian، فإن الجيش الأمريكي طلب وصولاً أوسع لقدرات النموذج، وهو ما يثير تساؤلات بشأن توافق ذلك مع السياسات الأخلاقية التي تعتمدها الشركة.
وفي هذا السياق، أفاد التقرير بأن الشركة ترفض السماح باستخدام تقنياتها في أنظمة الأسلحة المستقلة أو في عمليات المراقبة الجماعية، مؤكدة ضرورة وجود إشراف بشري مباشر عند استخدام أدوات الذكاء الاصطناعي في سياقات حساسة. ويأتي هذا الموقف في وقت يسعى فيه United States Department of Defense إلى توسيع استثماراته في التقنيات المتقدمة، عبر عقود بملايين الدولارات مع شركات تكنولوجية مختلفة.
كما يسلط الخلاف الضوء على التوتر القائم بين وتيرة التطور التكنولوجي في المجال العسكري ومتطلبات الحوكمة الأخلاقية للذكاء الاصطناعي. وترى الشركة أن أي استخدام لتقنياتها في سياقات قتالية يجب أن يخضع لضوابط صارمة، منعاً لإساءة الاستخدام أو اتخاذ قرارات حاسمة دون تدخل بشري مسؤول.
من جهة أخرى، تُعرَّف أنظمة الأسلحة المستقلة بأنها أنظمة تعتمد على خوارزميات لتحديد الأهداف واتخاذ قرارات إطلاق النار دون تدخل مباشر من الإنسان، وهو ما يثير جدلاً دولياً واسعاً حول المخاطر القانونية والإنسانية المرتبطة بها. وتؤكد شركات تقنية عدة أنها تضع قيوداً واضحة لمنع استخدام أدواتها في أنشطة قد تنتهك حقوق الأفراد أو تتسبب بأضرار جسيمة.
وبين الضغوط السياسية والاعتبارات الأخلاقية، يبدو أن النقاش حول حدود استخدام الذكاء الاصطناعي في المجالات العسكرية سيظل مفتوحاً خلال السنوات المقبلة، في ظل تسارع سباق التسلح الرقمي وتزايد الرهانات الاستراتيجية على هذه التقنيات.
