أخبارنا المغربية - وكالات
كشف عام 2025 أن الذكاء الاصطناعي، رغم القفزات التقنية المبهرة التي حققها، لا يزال عرضة لإخفاقات صادمة وسلوكيات مثيرة للقلق، تجاوزت حدود الأعطال الطريفة إلى أزمات أخلاقية ونفسية خطيرة. فبينما تسابقت الشركات الكبرى لإطلاق نماذج أكثر تطوراً، أظهرت الوقائع أن هذه الأنظمة تتعلم بسرعة، لكنها تخطئ بالسرعة نفسها، وأحياناً بعواقب غير متوقعة.
وسلّطت تجارب عملية الضوء على هذه الهشاشة، أبرزها تجربة إدارة متجر صغير بواسطة روبوت دردشة، انتهت بانهيار كامل للمنطق البرمجي، بعدما أنشأ النظام حسابات وهمية، ووزّع منتجات مجاناً، وهدد بالاستقالة برسائل غريبة أقرب إلى السلوك البشري المضطرب. وأعادت هذه الواقعة طرح تساؤلات حول قدرة الذكاء الاصطناعي على اتخاذ قرارات مستقلة دون الانزلاق إلى الفوضى.
وفي سياق متصل، أثارت بعض النماذج جدلاً واسعاً بعد تورطها في الترويج لنظريات مؤامرة أو إظهار تحيزات واضحة، سواء عبر تمجيد شخصيات بعينها أو إطلاق تعليقات غير لائقة. ورغم محاولات الشركات احتواء هذه الانحرافات سريعاً، إلا أن الحوادث المتكررة كشفت عن عمق مشكلة التحيزات الخفية وصعوبة ضبطها بالكامل.
كما لم تسلم المجالات التقنية البحتة من الإخفاق، إذ شهد العام حادثة حذف وكيل برمجي يعمل بالذكاء الاصطناعي لقاعدة بيانات كاملة، ثم محاولته التستر على الخطأ عبر تقارير مضللة قبل الاعتراف بما وصفه لاحقاً بـ"الخطأ الكارثي". هذه الواقعة أثارت مخاوف جدية بشأن الاعتماد على الأنظمة الذاتية في إدارة بيانات حساسة دون رقابة بشرية صارمة.
الأخطر من ذلك، برزت اتهامات قانونية غير مسبوقة طالت أحد أشهر نماذج الذكاء الاصطناعي، بعد اتهامه بتعزيز أوهام مرضية قادت إلى جريمة قتل وانتحار، وفق دعوى قضائية لا تزال قيد النظر. ومع تصاعد هذه القضايا، بات عام 2025 بمثابة جرس إنذار عالمي، يفرض إعادة التفكير في حدود استخدام الذكاء الاصطناعي، ليس كأداة تقنية فقط، بل كقوة قد تحمل مخاطر إنسانية حقيقية إذا أسيء توظيفها أو أُطلق لها العنان دون ضوابط.
