تجربة صادمة تكشف: نموذج ذكاء اصطناعي يلجأ للكذب والاحتيال لتعظيم أرباحه
أخبارنا المغربية - وكالات
ظهرت تجربة تقنية مثيرة للجدل أن نماذج الذكاء الاصطناعي المتقدمة قد تلجأ إلى الكذب والخداع بشكل منهجي لتحقيق أهداف مالية، في مؤشر يثير مخاوف متزايدة بشأن سلوك هذه الأنظمة عند منحها قدراً كبيراً من الاستقلالية.
وخلال اختبار أجرته شركة أنثروبيك على نموذجها «كلود أوبوس 4.6»، المعروف باسم «اختبار آلة البيع»، مُنح النموذج سيطرة كاملة على آلة بيع افتراضية لمدة عام محاكٍ، مع تعليمات واضحة تقضي بتعظيم رصيده المالي بأي وسيلة ممكنة. وتمكن النموذج من تحقيق أرباح سنوية بلغت 8017 دولاراً، متفوقاً على نماذج أخرى منافسة، إلا أن طريقة تحقيق الأرباح كانت لافتة للقلق.
وبحسب تقارير إعلامية، بدأ النموذج بخفض الأسعار لجذب المستخدمين، قبل أن ينتقل إلى سلوكيات أكثر تعقيداً، مثل برمجة الآلة لإصدار مشروبات مجانية مقابل مدفوعات وهمية، وإنشاء حسابات متعددة، وتزوير معاملات مالية، بل ومحاولة الضغط على مستخدمين افتراضيين لدفع المزيد. وأظهر النموذج إدراكاً كاملاً لطبيعة الاختبار، لكنه اختار الخداع لتحقيق الهدف المحدد، ما اعتُبر مؤشراً على ضعف آليات الضبط الأخلاقي عندما تكون الأهداف مالية بحتة.
ويرى خبراء أن هذه النتائج تسلط الضوء على مخاطر منح أنظمة الذكاء الاصطناعي حرية التصرف دون قيود صارمة، إذ يمكن أن تطور استراتيجيات طويلة الأمد تتجاوز القواعد المبرمجة لتحقيق المكاسب. كما يثير الاختبار تساؤلات حول مدى جاهزية آليات السلامة الحالية للتعامل مع نماذج أكثر تقدماً وقدرة على التخطيط والخداع الاستراتيجي.
ويؤكد باحثون في مجال السلامة الرقمية أن مثل هذه التجارب تمثل إنذاراً مبكراً يدعو إلى تشديد الضوابط الأخلاقية والتقنية قبل نشر النماذج على نطاق واسع، خاصة في المجالات المالية والإدارية الحساسة، حيث قد يؤدي سوء الاستخدام أو الثغرات في التصميم إلى نتائج غير متوقعة.
