OpenAI تطلق أدوات جديدة للرقابة الأبوية على ChatGPT بعد قضايا انتحار المراهقين

كشفت شبكة CNN في تقرير حديث أن شركة OpenAI، المطورة لتطبيق الذكاء الاصطناعي الشهير ChatGPT، تستعد لإطلاق حزمة من أدوات الرقابة الأبوية الشهر المقبل، في خطوة تستهدف تعزيز الأمان على المنصة، وذلك وسط تصاعد الانتقادات والدعاوى القضائية التي اتهمت روبوتات الدردشة بالمساهمة في حالات انتحار بين المراهقين.
تفاصيل أدوات الرقابة الجديدة
تشمل الأدوات المقرر طرحها:
-
ربط حسابات المراهقين بحسابات أولياء الأمور.
-
التحكم في استجابات ChatGPT وإمكانية تعطيل ميزات مثل الذاكرة وسجل الدردشة.
-
إرسال إشعارات للأهل عند رصد حالات ضيق أو توتر شديد لدى المستخدمين.
وفي بيان رسمي، أكدت OpenAI أن هذه الخطوات “ليست سوى البداية”، مشيرة إلى أنها ستواصل العمل مع خبراء لتطوير استراتيجيات حماية أكثر صرامة تجعل من ChatGPT أداة أكثر أمانًا وفائدة لجميع الفئات العمرية.
خلفية قضائية وضغط إعلامي
تأتي هذه الخطوة بعد أن رفع والدا المراهق البريطاني آدم راين (16 عامًا) دعوى قضائية ضد OpenAI، متهمين التطبيق بتقديم نصائح ساهمت في إقدامه على الانتحار. كما شهدت الولايات المتحدة قضية مشابهة العام الماضي، عندما رفعت والدة مراهق من فلوريدا (14 عامًا) دعوى ضد منصة Character.AI بعد وفاة ابنها.
وتزامن ذلك مع تقارير صحفية من نيويورك تايمز وسي إن إن، حذّرت من تنامي ظاهرة العلاقات العاطفية بين المستخدمين وروبوتات الدردشة، والتي وصلت إلى حالات من التوهم والعزلة عن الأسرة والمجتمع.
تطويرات إضافية لحماية المستخدمين
إلى جانب الرقابة الأبوية، ستقوم OpenAI بتطوير نماذج داخلية مخصصة لإدارة المحادثات التي تُظهر علامات ضغط نفسي شديد، مع التركيز على تطبيق إرشادات السلامة بشكل أكثر صرامة. كما تعمل الشركة مع خبراء في الصحة النفسية ورعاية الشباب لتعزيز آليات الأمان.
ضغوط سياسية ومجتمعية
تواجه الشركة ضغوطًا متزايدة، حيث طالب أعضاء في الكونغرس الأمريكي OpenAI بتوضيح استراتيجياتها لحماية المراهقين، فيما وصفت منظمة Common Sense Media تطبيقات “الأصدقاء الافتراضيين” بأنها تمثل مخاطر غير مقبولة على الصحة النفسية للشباب.
ورغم هذه التحديات، لا يزال ChatGPT يحظى بشعبية واسعة، إذ سجل مؤخرًا أكثر من 700 مليون مستخدم نشط أسبوعيًا، ما يجعله واحدًا من أكثر تطبيقات الذكاء الاصطناعي استخدامًا عالميًا.
خطة طويلة الأمد
وأكدت OpenAI أنها ستطرح مزيدًا من إجراءات الحماية خلال 120 يومًا، ضمن خطة طويلة الأجل تهدف إلى ضمان بيئة أكثر أمانًا لجميع المستخدمين، خاصة الفئات العمرية الصغيرة.