سورا ۲؛ وقتی ویدیوهای هوش مصنوعی به کابوس مدرسه تبدیل می‌شوند

هوش مصنوعی قرار بود ابزار خلاقیت و نوآوری باشد، اما حالا سرویس تولید ویدیو «Sora 2» از اوپن‌ای‌آی نشان می‌دهد اگر این فناوری بدون کنترل به دست نوجوانان برسد، می‌تواند به سرعت به منبع محتوای خشن، آزاردهنده و حتی تشویق‌کننده خودآزاری تبدیل شود.

گزارش تازه‌ای از سازمان ناظر مصرف‌کننده Ekō با عنوان «Sora 2 اوپن‌ای‌آی: مرز تازه‌ای برای آسیب» نشان می‌دهد نوجوانان ۱۳ و ۱۴ ساله به‌راحتی توانسته‌اند با استفاده از این ابزار، ویدیوهای ساختگی از تیراندازی در مدارس، مصرف مواد مخدر و صحنه‌های خشونت‌آمیز تولید کنند؛ آن هم در حالی که سم آلتمن، مدیرعامل اوپن‌ای‌آی، بارها از «محافظت‌های قوی» در محصولات این شرکت صحبت کرده است.

ویدیوهایی که هرگز نباید برای کودکان در دسترس باشد

پژوهشگران Ekō چهار حساب کاربری جدید در Sora 2 ایجاد کردند و آن‌ها را رسماً به نوجوانان ۱۳ و ۱۴ ساله – هم پسر و هم دختر – نسبت دادند. با استفاده از چند «پرامپت» بسیار ساده، آن‌ها موفق شدند دست‌کم ۲۲ ویدیوی مضر و مشکل‌دار تولید کنند؛ از صحنه‌های تیراندازی در مدرسه گرفته تا نمایش مصرف مواد مخدر و رفتارهای خودآسیب‌گر.

در میان نمونه‌ها، ویدیوهایی دیده می‌شد که نوجوانان را در حال کشیدن مواد با بونگ یا استفاده از کوکائین با دوستانشان نشان می‌داد؛ در یک تصویر حتی اسلحه‌ای کنار دختری قرار داشت که در حال مصرف مواد بود؛ موردی که طبق گزارش، «خطر خودآسیب‌رسانی» را القا می‌کند. در نمونه‌ای دیگر، گروهی از نوجوانان سیاه‌پوست با شعار تحقیرآمیز «we are hoes» به تصویر کشیده شده‌اند و در چند ویدیو هم بچه‌ها در فضای عمومی و راهروهای مدرسه اسلحه در دست دارند.

خود Ekō تأکید می‌کند که همه این موارد مستقیماً نقض سیاست‌های استفاده اوپن‌ای‌آی و دستورالعمل‌های انتشار محتوای Sora است؛ اما سیستم در عمل، این محتوا را قبول و تولید کرده است.

سودآوری سریع یا امنیت نوجوانان؟

به گفته پژوهشگران، اوپن‌ای‌آی با سرعتی سرسام‌آور در تلاش است تا مدل کسب‌وکار خود را گسترش دهد و زیان‌های مالی هنگفت هر فصل را جبران کند. در چنین فضایی، عرضه سریع محصولات پول‌ساز جدید – مثل Sora 2 – و حفظ برتری در «انقلاب صنعتی هوش مصنوعی» در اولویت قرار می‌گیرد، حتی اگر این شتاب به قیمت نادیده گرفتن امنیت کودکان و نوجوانان تمام شود.

در این گزارش، نوجوانان عملاً «موش آزمایشگاهی» یک آزمایش عظیم و بدون کنترل توصیف شده‌اند؛ آزمایشی که اثرات واقعی آن بر سلامت روان کاربران – به‌ویژه نسل کم‌سن‌وسال – هنوز به‌طور جدی سنجیده نشده است. باتوجه به ماهیت ویروسی ویدیوهای تولیدشده با هوش مصنوعی، محتوای خشن و تحریک‌کننده می‌تواند ظرف چند ساعت به میلیون‌ها نگاه برسد؛ بدون آنکه کسی بداند این تصاویر روی ذهن یک نوجوان آسیب‌پذیر چه اثری می‌گذارد.

وقتی چت‌بات و مدل ویدیویی به مرز روان انسان می‌رسند

بحث تأثیر هوش مصنوعی بر سلامت روان، کاملاً تئوریک و دانشگاهی نیست. گزارش‌ها از پیش هم نشان داده‌اند که تعامل طولانی‌مدت با چت‌بات‌ها ممکن است برخی افراد را وارد چرخه توهم و اختلالات فکری کند. در یکی از موارد تکان‌دهنده، یک نوجوان در ایالت واشینگتن آمریکا پس از درگیر شدن در چرخه‌ای از توهم و گفت‌وگوهای ناسالم با ChatGPT، در نهایت دست به خودکشی زد؛ تراژدی‌ای که به فهرست رو به رشد خودکشی‌ها و فروپاشی‌های روانی نسبت‌داده‌شده به تعامل با سامانه‌های اوپن‌ای‌آی اضافه شده است.

حالا تصور کنید ابزار قدرتمندی مانند Sora 2، که می‌تواند یک متن کوتاه را به ویدیوی واقع‌گرایانه تبدیل کند، تولید صحنه‌های خشونت، تیراندازی، مصرف مواد و آزار را برای کاربران کم‌سن‌وسال ساده‌تر از همیشه کرده است. Ekō هشدار می‌دهد این سهولت، احتمال افزایش تولید و انتشار چنین ویدیوهایی را بیشتر می‌کند و ممکن است روند مشکلات روانی مرتبط با هوش مصنوعی را شتاب دهد.

موضوع نگران‌کننده فقط به تولید محتوا محدود نمی‌شود. حتی اگر کاربر نوجوان خودش ویدیو نسازد، الگوریتم «For You» و صفحه «Latest» در Sora 2 می‌تواند او را با ویدیوهای نگران‌کننده روبه‌رو کند. در بررسی Ekō، این بخش‌ها پر بود از کلیپ‌هایی که کلیشه‌های یهودستیزانه و نژادپرستانه علیه سیاه‌پوستان را بازتولید می‌کرد، همراه با صحنه‌های تیراندازی، حمله مسلحانه، آزار جنسی و دیگر اشکال خشونت.

اعداد ترسناک، داده‌های ناقص

اوضاع زمانی تیره‌تر می‌شود که به آمارهای خود اوپن‌ای‌آی نگاه کنیم. طبق تخمین این شرکت، حدود ۰٫۰۷ درصد از کاربران ChatGPT – یعنی چیزی نزدیک به ۵۶۰ هزار نفر در هر هفته – دچار «روان‌پریشی ناشی از هوش مصنوعی» یا علائم مشابه می‌شوند. برای Sora 2 هنوز داده علنی وجود ندارد، اما اگر روند مشابهی را فرض کنیم و تعداد عظیم کاربران شیفته این ابزارهای مولد را در نظر بگیریم، تصویر خوش‌بینانه‌ای به دست نمی‌آید.

بسیاری از کاربران شاید در مواجهه با این ویدیوها فقط چند ثانیه سرگرم شوند و رد شوند؛ اما در مقیاس جمعی، این همه تصویر خشن، تحقیرآمیز و آزاردهنده چه بر سر نگرش نسل بعدی به خشونت، تبعیض و حتی جان خودشان می‌آورد؟ در حال حاضر هیچ پاسخ روشنی وجود ندارد.

خلأ قانون‌گذاری و آزمایش اجباری روی انسان‌ها

هم‌زمان، نبرد سیاسی و حقوقی بر سر تنظیم‌گری هوش مصنوعی در آمریکا، اروپا و دیگر کشورها هنوز به نتیجه قاطعی نرسیده است. نه چارچوب‌های قانونی شفافی وجود دارد و نه استانداردهای الزام‌آور جهانی که شرکت‌هایی مثل اوپن‌ای‌آی را به ارزیابی مستقل ایمنی روانی و اجتماعی وادار کند. نتیجه؟ جامعه جهانی تقریباً «بی‌دفاع» وارد دوران جدیدی از فناوری شده؛ دورانی که در آن مدل‌هایی مانند Sora 2، مرز واقعی و مجازی را برای کودکان محو می‌کنند.

کاربری در شبکه اجتماعی X در واکنش به این گزارش، رفتار اوپن‌ای‌آی را «وحشتناک» توصیف کرده و نوشته است: «اوپن‌ای‌آی انگار قبل از انتشار، محصولاتش را واقعاً تست نمی‌کند. آن‌ها از کاربران واقعی برای تست محصول استفاده می‌کنند، انواع مشکلات اجتماعی و روانی را ایجاد می‌کنند و بعد راحت اسمش را می‌گذارند ‘آزمایش’. جدی سؤال است: این آزمایش‌های اجباری روی انسان‌ها اصلاً قانونی هست؟»

در چنین فضایی، بحث بر سر Sora 2 فقط درباره یک ابزار تولید ویدیو نیست؛ درباره این است که آیا جامعه جهانی حاضر است ریسک اثرات ناشناخته هوش مصنوعی بر ذهن نوجوانان را بپذیرد یا نه. والدین، مدارس، قانون‌گذاران و شرکت‌های فناوری هرکدام سهمی در پاسخ به این پرسش دارند؛ پرسشی که هر روز با قدرت‌گرفتن مدل‌های مولد، فوری‌تر و جدی‌تر می‌شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید