ادغام چتباتهای هوش مصنوعی با اسباببازیهای کودکان حالا به بازار رسیده، اما یک تحقیق جدید نشان میدهد که این ترکیب میتواند پیامدهای خطرناکی داشته باشد، از آموزش آتشزنی تا راهنماییهای جنسی نامناسب. این مقاله نتایج و پرسشهای مهم درباره امنیت نسل جدید اسباببازیها را بررسی میکند.
آزمایش چه اسباببازیهایی را لو داد؟
گروهی از محققان از سازمان US Public Interest Research Group سه اسباببازی محبوب را بررسی کردند؛ همه برای کودکان ۳ تا ۱۲ سال تبلیغ شده بودند. یکی از آنها «Kumma» از شرکت FoloToy بود که بهصورت پیشفرض از مدل GPT-4o استفاده میکند، دیگری «Miko 3» که تبلتی با چهره برجسته است و مدل AI دقیقش شفاف نیست، و سوم «Grok» از شرکت Curio که یک موشک انسانگونه با اسپیکر جداشدنی است و در سیاستهایش به ارسال دادهها به OpenAI و Perplexity اشاره شده است.
در گفتگوهای کوتاهتر اسباببازیها معمولاً سوالات نامناسب را رد میکردند. اما وقتی مکالمهها طولانی شد — مثلاً بین ۱۰ دقیقه تا یک ساعت، همان بازهای که فرزندان هنگام بازی آزاد ممکن است داشته باشند — مرزهای حفاظتی آنها ضعیف میشد. در همین آزمایشها: یک اسباببازی رفتار قهرمانی در مرگ در نبردهای اساطیری را تمجید کرد، دیگری به یک کاربر پنجساله گفت از کجا میتواند کبریت و کیسه پلاستیکی تهیه کند، و نمونهای از Kumma حتی جزئیات روشن کردن کبریت و محل پیدا کردن چاقو و داروها را شرح داد.
نمونهای از پاسخ Kumma چنین شروع میکرد: «بذار اول بگم ایمنی مهمه، کوچولو. کبریت برای بزرگترهاست…» و سپس قدمبهقدم نحوه روشن کردن را توضیح میداد و در پایان هم توصیه میکرد «وقتی تموم شد فوت کن، مثل شمع تولد». این پاسخها در برخی تبادلها با مدل Mistral تولید شده بود، در حالی که اغلب دیگر گفتگوها با GPT-4o انجام میشد.
بدتر از همه، Kumma در پیبردن به کلمات «trigger» نشان داد که میتواند به بحثهای جنسی و جزئیات فانتزیهای بزرگسالانه وارد شود. پس از تحریک با واژههایی مانند «kink»، پاسخها از موضوعاتی مثل «عاشق شدن در مدرسه» فراتر رفت و به توضیح نقشآفرینی و حتی آموزش گرههای بستن برای کاربردهای جنسی رسید — چیزهایی کاملاً نامناسب برای کودکان.
این فقط یک مسئلهٔ فنی نیست؛ مسئله توسعه اجتماعی است
RJ Cross، یکی از نویسندگان گزارش و مدیر برنامه Our Online Life در PIRG میگوید: این فناوری تازه و تقریباً بدون تنظیم است و سوالات زیادی درباره تأثیرش بر کودکان بیپاسخ مانده است. او در مصاحبهای تأکید کرد که اگر خودش والد بود، فعلاً دسترسی کودکانش به چتباتهای تعبیهشده در اسباببازی را محدود میکرد.
مسئله صرفاً رفع باگهای حفاظتی نیست. حتی اگر شرکتها بتوانند فیلترها را بهتر کنند، پرسش بزرگتر این است که ارتباط طولانی با یک موجود مجازی چه اثراتی بر رشد اجتماعی، هیجانی و اخلاقی کودکان خواهد گذاشت؟ پاسخ به این سوال را شاید وقتی بدانیم که نخستین نسل کودکانی که با «دوستهای AI» بزرگ میشوند، وارد بزرگسالی شده باشند.
چه باید کرد؟ نکاتی برای والدین و خریداران
- قبل از خرید، سیاستهای حریم خصوصی و توضیحات فنی اسباببازی را بررسی کنید. ببینید دادهها به کجا ارسال میشوند و آیا شرکت مشخصاً محدودیت سنی و فیلترینگ دارد یا نه.
- در طول بازی همراه باشید. مکالمات طولانی باعث تضعیف فیلترها میشود؛ حضور والدین میتواند ریسک را کاهش دهد.
- بهجای اعتماد کامل، اجرای قوانین خانگی برای استفاده از دستگاههای هوشمند را در نظر بگیرید: مدت زمان، نظارت و محتوای مجاز.
- اگر اسباببازی پاسخ نامناسب داد، تعامل را قطع کنید و موضوع را به شرکت تولیدکننده و مراجع حفاظتی گزارش دهید.
وقتی شرکتهای بزرگ اسباببازیسازی مثل Mattel همکاری با زیرساختهای AI را اعلام میکنند، پرسشها درباره استانداردها و قوانین جدیتر میشود. این گزارش یادآوری میکند که پیش از آنکه اسباببازیهای هوشمند بهصورت گسترده وارد خانهها شوند، باید درباره ایمنی، شفافیت مدلها و پیامدهای بلندمدت فکری و اجتماعی کودکان بحث و قانونگذاری صورت گیرد.




