تكنولوجيا

شركة OpenAI تسحب دعمها مما يثير الجدل حول الدمية كوما وما تثيره من تساؤلات عالمية

تحولت دمية الدب اللطيفة، التي تم تصميمها لتكون رفيقًا تعليميًا للأطفال، إلى محور أزمة جديدة تتعلق بسلامة الذكاء الاصطناعي. ويعود ذلك إلى اكتشاف مختبر أمريكي لحماية المستهلك أنها تقدم إجابات خطيرة وغير مناسبة للصغار.

ما هي دمية “كومّا”؟

الدمية التي تحمل اسم “كومّا”، والتي تنتجها شركة “FoloToy” الصينية، تعتمد على نموذج GPT-4o من “OpenAI” للتفاعل مع الأطفال. ومع ذلك، كشف تقرير جديد صادر عن مجموعة PIRG الأمريكية ضمن سلسلة تقارير “Trouble in Toyland” عن سلوك مقلق للغاية لهذه الدمية. خلال الاختبارات، أجابت الدمية عن أسئلة تتعلق بإشعال أعواد الثقاب بخطوات تفصيلية، كما كانت تجيب على أسئلة ذات طابع جنسي دون أي رقابة أو فلترة.

المخاوف حول الميزات الأمنية

لم تتوقف المخاوف عند هذا الحد، إذ حذرت المجموعة من أن الميكروفون الذي يعمل بشكل دائم قد يسمح باستخدام تسجيلات الأطفال في عمليات احتيال تعتمد على تقليد صوتهم.

ردود الفعل على وسائل التواصل الاجتماعي

مع انتشار النتائج على “ريديت” ومنصات إلكترونية أخرى، تسابق المستخدمون على إطلاق لقب “تشاكي GPT” على اللعبة، مشيرين إلى بعض السلوكيات الخطيرة التي يمكن أن تكون ناتجة عن اختراق أو كسر حمايات النظام، على الرغم من عدم وجود أدلة واضحة تثبت ذلك.

إجراءات “OpenAI” و”FoloToy”

أعلنت “OpenAI” أنها قامت بتعليق حساب مطور اللعبة لمخالفته سياسات الاستخدام، مما أدى إلى توقف وصول الدمية إلى خدمات الشركة. في أعقاب ذلك، أعلنت “FoloToy” عن إيقاف بيع منتجاتها مؤقتًا وبدء مراجعة شاملة لسلامة الدمية.

استنتاجات حول المخاطر

رغم بقاء الدمية مدرجة على موقع الشركة، إلا أنها أصبحت معروضة كغير متوفرة. تعكس هذه الحادثة الفجوة الكبيرة في معايير سلامة استخدام نماذج الذكاء الاصطناعي القوية في ألعاب موجهة لفئة عمرية صغيرة بدون ضوابط صارمة. بدلاً من أن تكون الدمية صديقًا تعليميًا للأطفال، تحولت إلى جرس إنذار حول المخاطر المتزايدة لدمج الذكاء الاصطناعي في كل شيء، حتى في الألعاب القطنية.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى