تسريبات تورط أنثروبيك... هل دخل "كلاود" فعلا إلى غرف التخطيط الحربي الأمريكية؟

تسريبات تورط أنثروبيك... هل دخل "كلاود" فعلا إلى غرف التخطيط الحربي الأمريكية؟

أخبارنا المغربية - وكالات

كشفت تقارير حديثة، أبرزها ما نشرته مجلة Wired، أن نموذج Claude التابع لشركة Anthropic استُخدم داخل أدوات عسكرية تشغلها شركة Palantir لصالح وزارة الدفاع الأمريكية، ما أعاد إلى الواجهة أسئلة حساسة حول حدود استخدام الذكاء الاصطناعي في التخطيط العسكري. وبحسب التقرير، فإن النموذج لم يظهر كنظام مستقل داخل البنتاغون، بل كان جزءا من منصات بالانتير التي تتيح للمستخدمين اختيار نماذج مختلفة للمساعدة في التحليل واتخاذ القرار داخل بيئات شديدة الحساسية.

وفي هذا السياق، تؤكد بيانات Palantir الرسمية أن الشركة أعلنت في نوفمبر 2024 شراكة مع Anthropic لإتاحة نماذج Claude عبر خدمات AWS للاستخدامات الحكومية الأمريكية، بما في ذلك الاستخبارات والدفاع. كما يرتبط هذا الدمج بمنصة AIP التابعة لبالانتير، وهي المنصة التي تُستخدم داخل أنظمة الشركة الأوسع مثل Foundry وGotham، فيما يعد مشروع Maven واحدا من أبرز البرامج الدفاعية التي تعتمد على تقنيات بالانتير في التحليل العسكري والاستخباراتي.

غير أن النقطة الأكثر حساسية تتمثل في أن Anthropic تقول، وفق ملفات دعواها القضائية وتقارير Reuters، إنها رفضت إزالة قيود أمان تمنع استخدام Claude في الأسلحة الذاتية التشغيل والمراقبة الجماعية، وهو ما فجّر نزاعا مباشرا مع وزارة الدفاع الأمريكية. وتفيد هذه التقارير بأن البنتاغون اعتبر الشركة لاحقا "مخاطرة في سلسلة التوريد"، بينما ردت أنثروبيك بأن هذا الإجراء جاء انتقاما من تمسكها بتلك القيود، مع تأكيدها في الوقت نفسه أنها لا ترفض دعم مهام الأمن القومي بشكل عام.

ومن جهة أخرى، لا يوجد حتى الآن ما يثبت علنا أن Anthropic منحت موافقة صريحة على كل الاستخدامات القتالية التي كُشف عنها في التسريبات، كما أن Wired نفسها عرضت المسألة باعتبارها موضع نزاع أخلاقي وقانوني، لا حقيقة محسومة بالكامل. لكن المؤكد أن Claude كان مدمجا بالفعل في برمجيات عسكرية تديرها Palantir، وأن إزالته من بعض أنظمة وزارة الدفاع أصبحت لاحقا تحديا فنيا وسياسيا بعد قرار الحظر الأمريكي. وهذا يعني أن السؤال لم يعد فقط: هل استُخدم النموذج؟ بل أيضا: من كان يملك القرار الفعلي بشأن حدود هذا الاستخدام بعد دمجه داخل بنى دفاعية أوسع؟

ويضع هذا الملف Anthropic أمام اختبار صعب لصورتها كشركة تروّج لذكاء اصطناعي "آمن ومفيد"، خاصة مع اتساع حضور نماذج المحادثة داخل أنظمة عسكرية قادرة على تحليل البيانات الحساسة والمساعدة في التخطيط العملياتي. وبينما تواصل الشركة معركتها القانونية مع الحكومة الأمريكية، يبقى الجدل مفتوحا حول مسؤولية مطوري النماذج عندما تنتقل تقنياتهم من الاستخدام المدني إلى البيئات العسكرية عبر شركاء تقنيين كبار مثل Palantir.


هل ترغب بالتعليق على الموضوع؟

*
*
*
ملحوظة
  • التعليقات المنشورة لا تعبر بالضرورة عن رأي الموقع
  • من شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات
المقالات الأكثر مشاهدة