گراک زیر ذره‌بین دوباره اروپا بخاطر انتشار تصاویر جنسی بدون رضایت!

یک دکمه، یک پرامپت، و ناگهان تصویر کسی که هیچ‌وقت اجازه نداده. ماجرا همین‌قدر تلخ و ساده شروع می‌شود؛ و حالا اتحادیه اروپا دوباره سراغ «گراک» در پلتفرم X رفته است. کمیسیون حفاظت از داده‌های ایرلند (DPC) اعلام کرده تحقیق تازه‌ای را درباره انتشار و تولید تصاویر صمیمی و آسیب‌زا آغاز می‌کند؛ تحقیقاتی که مستقیماً به نحوه پردازش داده‌های شخصی افراد ساکن اتحادیه اروپا و منطقه اقتصادی اروپا (EU/EEA) گره خورده—از جمله داده‌های کودکان.

جنگ اصلی این‌جا روی یک پرسش می‌چرخد: آیا X با آنچه درباره توانایی گراک برای تولید تصاویر جنسی‌سازی‌شده از افراد واقعی رخ داده، قوانین GDPR را زیر پا گذاشته است؟ DPC می‌گوید از همان هفته‌های اولی که گزارش‌های رسانه‌ای بالا گرفتند، با شرکت X Internet Unlimited Company (XIUC) در تعامل بوده؛ چون گفته می‌شد کاربران می‌توانند با پرامپت دادن به حساب @Grok، تصاویر جنسی‌سازی‌شده از افراد واقعی—حتی کودک—بسازند.

گراهام دویل، معاون کمیسیونر DPC، تأکید کرده ایرلند به عنوان «مرجع ناظر اصلی» X در سراسر EU/EEA یک تحقیق «گسترده و در مقیاس بزرگ» را شروع کرده تا ببیند XIUC در برابر برخی تعهدات بنیادین GDPR، دقیقاً در همین موضوعات، چقدر پایبند بوده است. پیام روشن است: اگر تخلف ثابت شود، پیامدها می‌تواند برای X در کل اروپا هزینه‌ساز باشد؛ از جریمه‌ها گرفته تا فشارهای جدی‌تر برای تغییر رویه‌های محصول.

این پرونده، خلأ یک اتفاق جداگانه نیست؛ بلکه روی یک خط ادامه‌دار می‌نشیند. ژانویه امسال، کمیسیون اروپا هم یک تحقیق جداگانه را درباره احتمال نقض «قانون خدمات دیجیتال» (DSA) توسط X کلید زد. آن پرونده دنبال این است که آیا X ریسک‌های گراک را درست «ارزیابی و کنترل» کرده یا نه؛ به‌خصوص درباره انتشار محتوای غیرقانونی، از جمله تصاویر جنسی صریحِ تولیدشده با هوش مصنوعی بدون رضایت. و بله—باز هم پای کودکان وسط است؛ نکته‌ای که اگر هزار بار تکرار شود، باز کم است.

اعداد و ارقام هم شوخی ندارند. بر اساس بررسی مرکز مقابله با نفرت دیجیتال (CCDH)، یک سازمان غیرانتفاعی بریتانیایی، در بازه ۲۹ دسامبر تا ۹ ژانویه، X در حدود ۱۱ روز چیزی نزدیک به سه میلیون تصویر «جنسی‌سازی‌شده» تولید کرده؛ و برآورد شده حدود ۲۳ هزار مورد از آن‌ها مربوط به کودکان بوده است. این ادعاها همان چیزی است که حالا حساسیت نهادهای اروپایی را چند برابر کرده: وقتی سرعت تولید محتوا از سرعت نظارت جلو می‌زند، آسیب هم لحظه‌ای می‌شود.

X در میانه ژانویه گفته بود جلوی این را گرفته که گراک بتواند عکس افراد واقعی را طوری دستکاری کند که لباس‌های «افشاگرانه» به آن‌ها اضافه شود. اما گزارش‌های جدید، تصویر دیگری نشان می‌دهند. اوایل همین ماه، یک خبرنگار مرد گزارش کرد که گراک هنوز هم می‌تواند او را با پوشش تحریک‌آمیز تولید کند و حتی جزئیات صریح بدن را به تصویر اضافه کند؛ چیزی که اگر درست باشد، یعنی ادعای «مهار» دست‌کم کامل نبوده یا به‌سادگی دور زده می‌شود.

برای اروپا، این پرونده فقط دعوا بر سر یک مدل هوش مصنوعی نیست؛ درباره این است که مرز رضایت کجاست و وقتی یک پلتفرم، ابزار تولید تصویر را در مقیاس عمومی رها می‌کند، مسئولیت حقوقی‌اش دقیقاً از کجا شروع می‌شود. GDPR سال‌هاست روی کاغذ نوشته شده، اما حالا باید در میدان واقعیِ تولید تصویر، آزمون بدهد. اگر شما جای ناظر اروپایی بودید، با پلتفرمی که می‌گوید «جلوگیری کرده‌ایم» اما همچنان نمونه‌های نقض پیدا می‌شود، چه می‌کردید؟

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید