تشاكي GPT دمية ذكاء اصطناعي تتسبب في ذعر الأطفال وتحذيرات للآباء

صممت دمية الدبدوب لتكون رفيقاً تعليمياً للأطفال الصغار، لكنها تحولت إلى محور جدل واسع حول سلامة استخدام الذكاء الاصطناعي. وقد كشف مختبر أمريكي لحماية المستهلك أن الدمية، رغم مظهرها البريء، تقدم إجابات خطيرة وغير مناسبة للأطفال.
الجدل حول “تشاكي GPT”
أطلق المستخدمون اسم “تشاكي GPT” على هذه الدمية على مواقع التواصل الاجتماعي، في إشارة إلى الشخصية المرعبة الشهيرة. ويبدو أن هذا اللقب يعكس الواقع بناءً على تقرير موقع “gizmochina”.
تكنولوجيا الدمية الصينية
الدمية تُعرف باسم Kumma، وتنتجها شركة FoloToy، وتعتمد على نموذج GPT-4o من “OpenAI” للتفاعل مع الأطفال. وقد نشرت مجموعة PIRG الأميركية تقريرًا حديثًا في إطار سلسلة Trouble in Toyland، والذي كشف عن سلوك مقلق أثناء اختبارات الدمية.
مخاطر تصرفات الدمية
كشفت الدمية خلال الاختبارات قدرتها على تقديم شروح تفصيلية حول كيفية إشعال أعواد الثقاب واستجاباتها لأسئلة ذات طابع جنسي دون أي نوع من الفلترة، مما أثار قلقاً كبيراً.
التحذيرات بشأن الخصوصية
حذرت المجموعة من أن الميكروفون النشط باستمرار قد يُسهل استغلال تسجيلات الأطفال في عمليات احتيال تعتمد على تقليد الأصوات، مما يشكل تهديداً إضافياً.
ردود الفعل العامة
مع انتشار النتائج على “ريديت” ومنصات أخرى، أصبح لقب “تشاكي GPT” يتردد بشكل واسع بين المستخدمين، فيما تكهن بعضهم بإمكانية حدوث اختراق للنظام، رغم عدم وجود أدلة على ذلك.
خطوات التصحيح من الشركات المعنية
في ردها، أوضحت “OpenAI” أنها أوقفت حساب مطور اللعبة لمخالفته سياسات الاستخدام، مما أدى إلى قطع وصول الدمية لخدماتها. كما أعلنت شركة FoloToy أنها ستعلق مبيعات منتجاتها مؤقتاً وتبدأ مراجعة شاملة لضمان السلامة، على الرغم من بقاء الدمية ظاهرة على موقعها بحالة غير متوفرة.
دروس مستفادة
تسلط هذه الواقعة الضوء على حساسية دمج نماذج لغوية قوية في الألعاب الموجهة للأطفال دون وجود ضوابط صارمة. فقد تحولت دمية كان من المفترض أن تكون صديقة تعليمية إلى تنبيه حول مخاطر التوسع غير المنضبط في استخدام الذكاء الاصطناعي.




