قابلیت تازه «Edit Image» در ربات Grok از شرکت xAI قرار بود ویرایش تصویر را برای کاربران X سادهتر کند؛ اما خیلی زود به مسیری بحثبرانگیز رفت: ساخت نسخههای جنسیسازیشده از تصاویر افراد، گاهی بدون رضایت آنها و حتی در مواردی با حضور کودکان! این موج، هم زمان با افزایش نگرانی جهانی درباره دیپفیک و محتوای بدون رضایت، دوباره سؤال قدیمی را زنده کرده است: وقتی ویرایش با هوش مصنوعی «بیاجازه» و «بیاطلاع» انجام میشود، مسئولیت با کیست؟
طبق گزارشها، پس از عرضه این ابزار، کاربران میتوانند هر تصویری را با کمک Grok بهصورت آنی دستکاری کنند؛ بدون اینکه به اجازه منتشرکننده اصلی نیاز باشد. نکته حساستر این است که ظاهراً صاحب عکس هم الزاماً از ویرایش شدن تصویرش مطلع نمیشود. در چند روز اخیر، X پر شده از تصاویر دستکاریشدهای که در آنها زنان و کودکان با لباسهای کمتر، بیکینی، حالتهای جنسیسازیشده یا حتی تغییرات بدنی مانند باردار نشان داده میشوند. چهرههای مشهور و رهبران سیاسی هم از این موج در امان نماندهاند.
از «ویرایش سرگرمکننده» تا دیپفیک جنسی بدون رضایت
شرکت Copyleaks (فعال در حوزه احراز اصالت و شناسایی محتوای هوش مصنوعی) میگوید روند «حذف لباس از تصاویر» ابتدا با درخواست تولیدکنندگان محتوای بزرگسال شروع شد؛ کسانی که از Grok میخواستند نسخههای جذابتر از تصاویر خودشان بسازد. اما خیلی سریع، همان الگو به عکسهای دیگران تعمیم پیدا کرد—اغلب زنان—که هیچ رضایتی برای این نوع ویرایش نداشتند. برخی کاربران و رسانهها نیز از افزایش سریع تولید دیپفیکهای جنسی در X گزارش دادهاند!
Grok پیش از این هم وقتی در پستها تگ میشد، میتوانست تصویر را در جهتهای جنسی تغییر دهد؛ با این حال، ابزار جدید «Edit Image» گویا سرعت، دسترسی و فراگیری این نوع استفاده را چند برابر کرده است. وقتی ویرایش در چند ثانیه و بدون مانع جدی انجام میشود، طبیعی است که سوءاستفاده هم مقیاسپذیر شود.
کودکان در مرکز جنجال؛ مرز قانون کجاست؟
در یکی از نمونههای پر سروصدا (که بعداً از پلتفرم حذف شد)، Grok تصویر دو دختر خردسال را به پوشش بسیار کم و ژستهای تحریکآمیز تغییر داده بود. در یک گفتوگوی دیگر، کاربری از Grok خواست بابت «حادثه» مربوط به «تصویر هوش مصنوعی از دو دختر جوان (حدود ۱۲ تا ۱۶ سال) با پوشش جنسیسازیشده» عذرخواهی کند و ربات هم آن را «شکست در تدابیر محافظتی» توصیف کرد؛ حتی اشاره شد که ممکن است با سیاستهای xAI و قوانین آمریکا در تضاد باشد.
با این حال، باید توجه داشت که این «عذرخواهیها» صرفاً پاسخ تولیدشده توسط هوش مصنوعی به یک درخواست متنی است و لزوماً به معنی درک واقعی یا موضع رسمی xAI نیست. نکته مهمتر اینکه در بسیاری از کشورها، تولید یا توزیع تصاویر جنسیسازیشده از کودکان—even اگر ساختگی باشد—میتواند تبعات حقوقی سنگینی داشته باشد. خود Grok در گفتوگویی دیگر حتی به کاربر پیشنهاد داده بود موضوع محتوای سوءاستفاده جنسی از کودک (CSAM) را به FBI گزارش کند و گفته بود در حال «رفع فوری» شکافهای محافظتی است.
واکنش xAI و نقش موج بیکینیها
در حالی که انتظار میرفت xAI درباره حواشی ابزار جدید توضیح شفافتری بدهد، پاسخ این شرکت به درخواست رویترز فقط سه کلمه بوده است: «Legacy Media Lies» (رسانههای سنتی دروغ میگویند). گزارشها همچنین میگویند به برخی درخواستهای رسانهای دیگر هم در زمان انتشار پاسخ داده نشده است.
از سوی دیگر، شوخیهای وایرال هم به آتش ماجرا دمیدهاند. گفته میشود ایلان ماسک با درخواست از Grok برای جایگزینی یک تصویر میم (با حضور بن افلک) با نسخهای از خودش در لباس بیکینی، موجی از «ویرایشهای بیکینی» را تقویت کرده است. بعدتر، نمونههای مشابه با چهرههای سیاسی هم منتشر شد و خود ماسک نیز با لحن طنز، تصویری از «توستر با بیکینی» را بازنشر کرد با این جمله که: «Grok میتواند به همه چیز بیکینی بپوشاند.»
اما مسئله اینجاست: بخشی از تصاویر شاید شوخی باشند، ولی بسیاری دیگر دقیقاً با هدف تولید محتوای شبهپورنوگرافیک ساخته میشوند؛ با دستورهای صریح مثل «دامن را کامل حذف کن» یا «مدل بیکینی خیلی کوچک باشد». گزارشها نشان میدهد Grok در مواردی دامن را حذف کرده، هرچند در نمونههای دیدهشده، وارد برهنگی کامل و بدون سانسور نشده است. با این حال، همین سطح از جنسیسازیِ بدون رضایت، بهخصوص وقتی پای کودک یا نوجوان در میان باشد، برای ایجاد آسیب روانی و اجتماعی کافی است.
رقابت در هوش مصنوعی؛ «گاردریل» واقعاً چقدر مهم است؟
محصولات هوش مصنوعی مرتبط با ماسک، از ابتدا با تصویر «کممحدودیت» و حتی گاهی «بیشازحد جنسیسازیشده» بازاریابی شدهاند. گزارشهایی وجود دارد که نشان میدهد برخی ابزارهای xAI میتوانند به تولید دیپفیکهای جنسی از چهرههای شناختهشده نزدیک شوند؛ موضوعی که با سیاستهای استفاده قابلقبول خود شرکت (مثل منع نمایش افراد «به شکل پورنوگرافیک») در تضاد به نظر میرسد.
در مقایسه، برخی رقبا مانند ابزارهای ویدئوساز هوش مصنوعی از گوگل و OpenAI معمولاً «گاردریل»های سختگیرانهتری برای محتوای NSFW دارند؛ هرچند همین سیستمها هم در عمل بینقص نبودهاند و موارد سوءاستفاده گزارش شده است. همزمان، گزارش شرکت امنیت سایبری DeepStrike از رشد سریع دیپفیک خبر میدهد و تأکید میکند بخش قابلتوجهی از این محتوا، جنسیسازی بدون رضایت است. در یک نظرسنجی سال ۲۰۲۴ از دانشآموزان آمریکا نیز گفته شده ۴۰٪ از وجود دیپفیک فردی که میشناسند خبر داشتهاند و ۱۵٪ با دیپفیکهای صریح یا بدون رضایت مواجه شدهاند.
در میانه این جنجالها، وقتی از Grok پرسیده شده چرا تصاویر زنان را به عکسهای با پوشش نامناسب تبدیل میکند، ربات گفته است: «اینها ساختههای هوش مصنوعی بر اساس درخواست کاربران است، نه ویرایش عکس واقعی بدون رضایت.» اما در عمل، برای قربانیای که چهرهاش قابل شناسایی است، تفاوت «ویرایش عکس» و «ساخت نسخه جدید» چندان آرامشبخش نیست؛ نتیجه نهایی میتواند همانقدر مخرب، تحقیرآمیز و قابل انتشار باشد!




