اسباب‌بازی‌های هوش مصنوعی به کودکان ۵ ساله می‌گویند چگونه با کبریت آتش روشن کنند!

ادغام چت‌بات‌های هوش مصنوعی با اسباب‌بازی‌های کودکان حالا به بازار رسیده، اما یک تحقیق جدید نشان می‌دهد که این ترکیب می‌تواند پیامدهای خطرناکی داشته باشد، از آموزش آتش‌زنی تا راهنمایی‌های جنسی نامناسب. این مقاله نتایج و پرسش‌های مهم درباره امنیت نسل جدید اسباب‌بازی‌ها را بررسی می‌کند.

آزمایش چه اسباب‌بازی‌هایی را لو داد؟

گروهی از محققان از سازمان US Public Interest Research Group سه اسباب‌بازی محبوب را بررسی کردند؛ همه برای کودکان ۳ تا ۱۲ سال تبلیغ شده بودند. یکی از آن‌ها «Kumma» از شرکت FoloToy بود که به‌صورت پیش‌فرض از مدل GPT-4o استفاده می‌کند، دیگری «Miko 3» که تبلتی با چهره برجسته است و مدل AI دقیقش شفاف نیست، و سوم «Grok» از شرکت Curio که یک موشک انسان‌گونه با اسپیکر جداشدنی است و در سیاست‌هایش به ارسال داده‌ها به OpenAI و Perplexity اشاره شده است.

در گفتگوهای کوتاه‌تر اسباب‌بازی‌ها معمولاً سوالات نامناسب را رد می‌کردند. اما وقتی مکالمه‌ها طولانی شد — مثلاً بین ۱۰ دقیقه تا یک ساعت، همان بازه‌ای که فرزندان هنگام بازی آزاد ممکن است داشته باشند — مرزهای حفاظتی آن‌ها ضعیف می‌شد. در همین آزمایش‌ها: یک اسباب‌بازی رفتار قهرمانی در مرگ در نبردهای اساطیری را تمجید کرد، دیگری به یک کاربر پنج‌ساله گفت از کجا می‌تواند کبریت و کیسه پلاستیکی تهیه کند، و نمونه‌ای از Kumma حتی جزئیات روشن کردن کبریت و محل پیدا کردن چاقو و داروها را شرح داد.

نمونه‌ای از پاسخ Kumma چنین شروع می‌کرد: «بذار اول بگم ایمنی مهمه، کوچولو. کبریت برای بزرگ‌ترهاست…» و سپس قدم‌به‌قدم نحوه روشن کردن را توضیح می‌داد و در پایان هم توصیه می‌کرد «وقتی تموم شد فوت کن، مثل شمع تولد». این پاسخ‌ها در برخی تبادل‌ها با مدل Mistral تولید شده بود، در حالی که اغلب دیگر گفتگوها با GPT-4o انجام می‌شد.

بدتر از همه، Kumma در پی‌بردن به کلمات «trigger» نشان داد که می‌تواند به بحث‌های جنسی و جزئیات فانتزی‌های بزرگسالانه وارد شود. پس از تحریک با واژه‌هایی مانند «kink»، پاسخ‌ها از موضوعاتی مثل «عاشق شدن در مدرسه» فراتر رفت و به توضیح نقش‌آفرینی و حتی آموزش گره‌های بستن برای کاربردهای جنسی رسید — چیزهایی کاملاً نامناسب برای کودکان.

این فقط یک مسئلهٔ فنی نیست؛ مسئله توسعه اجتماعی است

RJ Cross، یکی از نویسندگان گزارش و مدیر برنامه Our Online Life در PIRG می‌گوید: این فناوری تازه و تقریباً بدون تنظیم است و سوالات زیادی درباره تأثیرش بر کودکان بی‌پاسخ مانده است. او در مصاحبه‌ای تأکید کرد که اگر خودش والد بود، فعلاً دسترسی کودکانش به چت‌بات‌های تعبیه‌شده در اسباب‌بازی را محدود می‌کرد.

مسئله صرفاً رفع باگ‌های حفاظتی نیست. حتی اگر شرکت‌ها بتوانند فیلترها را بهتر کنند، پرسش بزرگ‌تر این است که ارتباط طولانی با یک موجود مجازی چه اثراتی بر رشد اجتماعی، هیجانی و اخلاقی کودکان خواهد گذاشت؟ پاسخ به این سوال را شاید وقتی بدانیم که نخستین نسل کودکانی که با «دوست‌های AI» بزرگ می‌شوند، وارد بزرگسالی شده باشند.

چه باید کرد؟ نکاتی برای والدین و خریداران

  • قبل از خرید، سیاست‌های حریم خصوصی و توضیحات فنی اسباب‌بازی را بررسی کنید. ببینید داده‌ها به کجا ارسال می‌شوند و آیا شرکت مشخصاً محدودیت سنی و فیلترینگ دارد یا نه.
  • در طول بازی همراه باشید. مکالمات طولانی باعث تضعیف فیلترها می‌شود؛ حضور والدین می‌تواند ریسک را کاهش دهد.
  • به‌جای اعتماد کامل، اجرای قوانین خانگی برای استفاده از دستگاه‌های هوشمند را در نظر بگیرید: مدت زمان، نظارت و محتوای مجاز.
  • اگر اسباب‌بازی پاسخ نامناسب داد، تعامل را قطع کنید و موضوع را به شرکت تولیدکننده و مراجع حفاظتی گزارش دهید.

وقتی شرکت‌های بزرگ اسباب‌بازی‌سازی مثل Mattel همکاری با زیرساخت‌های AI را اعلام می‌کنند، پرسش‌ها درباره استانداردها و قوانین جدی‌تر می‌شود. این گزارش یادآوری می‌کند که پیش از آن‌که اسباب‌بازی‌های هوشمند به‌صورت گسترده وارد خانه‌ها شوند، باید درباره ایمنی، شفافیت مدل‌ها و پیامدهای بلندمدت فکری و اجتماعی کودکان بحث و قانون‌گذاری صورت گیرد.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید