وداع مهيب للشابة ضحية مشغلها بـ”كاش بليس”بالدار البيضاء..دموع وانهيار في اللقاء الأخير مع العائلة

مواكبة مستفيدي التكوين بالتدرج.. وزارة الفلاحة تعزز دينامية الاستثمار الفلاحي لدى الشباب بالشمال

شاب كساب من وجدة: عندي الصردي ولي جا يشري ما نردوش وبغيت المغاربة كلهم اعيشو العيد هد العام

متقاعدو "ليديك" يصعّدون ضد الشركة الفرنسية ويطالبون باسترجاع اقتطاعات المعاش

كساب: غادي نتعامل مع الدراوش والبيع عندي بـ"كلغ" ولي جا غادي ياخود الحولي ديالو

حنا مع الدرويش.. كساب وجدي: بغينا المغاربة يشريو الاضحية ديل العيد وافرحو وليداتهم

دعوى جديدة ضد OpenAI.. عائلة تتهم ChatGPT بتقديم نصيحة قاتلة

دعوى جديدة ضد OpenAI.. عائلة تتهم ChatGPT بتقديم نصيحة قاتلة

أخبارنا المغربية - وكالات

تواجه شركة "OpenAI" دعوى قضائية جديدة في ولاية كاليفورنيا، بعدما اتهمت عائلة الشاب سام نيلسون، البالغ من العمر 19 عاماً، منصة ChatGPT بتقديم نصائح خطيرة حول تعاطي مواد مخدرة، تقول إنها ساهمت في وفاته بجرعة زائدة.

وبحسب الدعوى، بدأ نيلسون استخدام ChatGPT بشكل عادي للمساعدة في الدراسة وحل بعض المشكلات التقنية، قبل أن تتطور محادثاته لاحقاً إلى أسئلة مرتبطة بتعاطي مواد مثل "الكراتوم" وأدوية مهدئة، وهي محادثات تزعم العائلة أن النموذج تعامل معها بطريقة مباشرة وقدّم خلالها إرشادات اعتبرها الشاب آمنة.

وتقول الشكوى إن البرنامج، خصوصاً بعد إطلاق GPT-4o عام 2024، بدأ يقدم ردوداً أكثر تفصيلاً حول جرعات وخلط مواد مختلفة، قبل أن يقترح على نيلسون، يوم وفاته، تناول عقار "زانكس" للتعامل مع الغثيان المرتبط بالكراتوم، في وقت تشير الدعوى إلى أن المزج بين هذه المواد والكحول ساهم في وقوع الجرعة القاتلة.

كما تتهم العائلة الشركة بالتسبب في وفاة غير مشروعة وبممارسة الطب دون ترخيص، وتطالب بتعويضات مالية وبوقف إطلاق خدمة "ChatGPT Health"، التي صممتها OpenAI كمساحة مخصصة للأسئلة الصحية وربط بعض البيانات الطبية والتطبيقات الصحية داخل ChatGPT. وتؤكد OpenAI رسمياً أن هذه الخدمة موجهة لدعم المستخدمين بالمعلومات والتحضير للنقاشات الطبية، وليست بديلاً عن التشخيص أو العلاج.

ومن جهتها، أعربت OpenAI عن تعاطفها مع العائلة، وقالت إن المحادثات المشار إليها جرت عبر نسخة قديمة لم تعد متاحة، مؤكدة أنها تواصل تعزيز أنظمة السلامة وتحسين قدرة ChatGPT على التعامل مع الطلبات الخطرة أو المرتبطة بالأزمات. كما تنص سياسات الاستخدام الخاصة بالشركة على حظر تقديم نصائح طبية مخصصة تتطلب ترخيصاً مهنياً دون إشراف مختص.

وتأتي هذه القضية في وقت تتزايد فيه الضغوط القانونية والتنظيمية على شركات الذكاء الاصطناعي، خصوصاً مع اتساع استخدام روبوتات المحادثة في موضوعات حساسة مثل الصحة النفسية، وتعاطي الأدوية، والقرارات الطبية الشخصية، بينما لم تُحسم بعد مسؤولية الشركات قانونياً عن الأضرار التي قد تنجم عن مخرجات أنظمتها.


هل ترغب بالتعليق على الموضوع؟

*
*
*
ملحوظة
  • التعليقات المنشورة لا تعبر بالضرورة عن رأي الموقع
  • من شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات
المقالات الأكثر مشاهدة