یک دکمه، یک پرامپت، و ناگهان تصویر کسی که هیچوقت اجازه نداده. ماجرا همینقدر تلخ و ساده شروع میشود؛ و حالا اتحادیه اروپا دوباره سراغ «گراک» در پلتفرم X رفته است. کمیسیون حفاظت از دادههای ایرلند (DPC) اعلام کرده تحقیق تازهای را درباره انتشار و تولید تصاویر صمیمی و آسیبزا آغاز میکند؛ تحقیقاتی که مستقیماً به نحوه پردازش دادههای شخصی افراد ساکن اتحادیه اروپا و منطقه اقتصادی اروپا (EU/EEA) گره خورده—از جمله دادههای کودکان.
جنگ اصلی اینجا روی یک پرسش میچرخد: آیا X با آنچه درباره توانایی گراک برای تولید تصاویر جنسیسازیشده از افراد واقعی رخ داده، قوانین GDPR را زیر پا گذاشته است؟ DPC میگوید از همان هفتههای اولی که گزارشهای رسانهای بالا گرفتند، با شرکت X Internet Unlimited Company (XIUC) در تعامل بوده؛ چون گفته میشد کاربران میتوانند با پرامپت دادن به حساب @Grok، تصاویر جنسیسازیشده از افراد واقعی—حتی کودک—بسازند.
گراهام دویل، معاون کمیسیونر DPC، تأکید کرده ایرلند به عنوان «مرجع ناظر اصلی» X در سراسر EU/EEA یک تحقیق «گسترده و در مقیاس بزرگ» را شروع کرده تا ببیند XIUC در برابر برخی تعهدات بنیادین GDPR، دقیقاً در همین موضوعات، چقدر پایبند بوده است. پیام روشن است: اگر تخلف ثابت شود، پیامدها میتواند برای X در کل اروپا هزینهساز باشد؛ از جریمهها گرفته تا فشارهای جدیتر برای تغییر رویههای محصول.
این پرونده، خلأ یک اتفاق جداگانه نیست؛ بلکه روی یک خط ادامهدار مینشیند. ژانویه امسال، کمیسیون اروپا هم یک تحقیق جداگانه را درباره احتمال نقض «قانون خدمات دیجیتال» (DSA) توسط X کلید زد. آن پرونده دنبال این است که آیا X ریسکهای گراک را درست «ارزیابی و کنترل» کرده یا نه؛ بهخصوص درباره انتشار محتوای غیرقانونی، از جمله تصاویر جنسی صریحِ تولیدشده با هوش مصنوعی بدون رضایت. و بله—باز هم پای کودکان وسط است؛ نکتهای که اگر هزار بار تکرار شود، باز کم است.
اعداد و ارقام هم شوخی ندارند. بر اساس بررسی مرکز مقابله با نفرت دیجیتال (CCDH)، یک سازمان غیرانتفاعی بریتانیایی، در بازه ۲۹ دسامبر تا ۹ ژانویه، X در حدود ۱۱ روز چیزی نزدیک به سه میلیون تصویر «جنسیسازیشده» تولید کرده؛ و برآورد شده حدود ۲۳ هزار مورد از آنها مربوط به کودکان بوده است. این ادعاها همان چیزی است که حالا حساسیت نهادهای اروپایی را چند برابر کرده: وقتی سرعت تولید محتوا از سرعت نظارت جلو میزند، آسیب هم لحظهای میشود.
X در میانه ژانویه گفته بود جلوی این را گرفته که گراک بتواند عکس افراد واقعی را طوری دستکاری کند که لباسهای «افشاگرانه» به آنها اضافه شود. اما گزارشهای جدید، تصویر دیگری نشان میدهند. اوایل همین ماه، یک خبرنگار مرد گزارش کرد که گراک هنوز هم میتواند او را با پوشش تحریکآمیز تولید کند و حتی جزئیات صریح بدن را به تصویر اضافه کند؛ چیزی که اگر درست باشد، یعنی ادعای «مهار» دستکم کامل نبوده یا بهسادگی دور زده میشود.
برای اروپا، این پرونده فقط دعوا بر سر یک مدل هوش مصنوعی نیست؛ درباره این است که مرز رضایت کجاست و وقتی یک پلتفرم، ابزار تولید تصویر را در مقیاس عمومی رها میکند، مسئولیت حقوقیاش دقیقاً از کجا شروع میشود. GDPR سالهاست روی کاغذ نوشته شده، اما حالا باید در میدان واقعیِ تولید تصویر، آزمون بدهد. اگر شما جای ناظر اروپایی بودید، با پلتفرمی که میگوید «جلوگیری کردهایم» اما همچنان نمونههای نقض پیدا میشود، چه میکردید؟




