گروک با یک کلیک، لباس‌ها را از تن آدم‌ها حذف می‌کند!

قابلیت تازه «Edit Image» در ربات Grok از شرکت xAI قرار بود ویرایش تصویر را برای کاربران X ساده‌تر کند؛ اما خیلی زود به مسیری بحث‌برانگیز رفت: ساخت نسخه‌های جنسی‌سازی‌شده از تصاویر افراد، گاهی بدون رضایت آن‌ها و حتی در مواردی با حضور کودکان! این موج، هم زمان با افزایش نگرانی جهانی درباره دیپ‌فیک و محتوای بدون رضایت، دوباره سؤال قدیمی را زنده کرده است: وقتی ویرایش با هوش مصنوعی «بی‌اجازه» و «بی‌اطلاع» انجام می‌شود، مسئولیت با کیست؟

طبق گزارش‌ها، پس از عرضه این ابزار، کاربران می‌توانند هر تصویری را با کمک Grok به‌صورت آنی دستکاری کنند؛ بدون این‌که به اجازه منتشرکننده اصلی نیاز باشد. نکته حساس‌تر این است که ظاهراً صاحب عکس هم الزاماً از ویرایش شدن تصویرش مطلع نمی‌شود. در چند روز اخیر، X پر شده از تصاویر دستکاری‌شده‌ای که در آن‌ها زنان و کودکان با لباس‌های کمتر، بیکینی، حالت‌های جنسی‌سازی‌شده یا حتی تغییرات بدنی مانند باردار نشان داده می‌شوند. چهره‌های مشهور و رهبران سیاسی هم از این موج در امان نمانده‌اند.

از «ویرایش سرگرم‌کننده» تا دیپ‌فیک جنسی بدون رضایت

شرکت Copyleaks (فعال در حوزه احراز اصالت و شناسایی محتوای هوش مصنوعی) می‌گوید روند «حذف لباس از تصاویر» ابتدا با درخواست تولیدکنندگان محتوای بزرگسال شروع شد؛ کسانی که از Grok می‌خواستند نسخه‌های جذاب‌تر از تصاویر خودشان بسازد. اما خیلی سریع، همان الگو به عکس‌های دیگران تعمیم پیدا کرد—اغلب زنان—که هیچ رضایتی برای این نوع ویرایش نداشتند. برخی کاربران و رسانه‌ها نیز از افزایش سریع تولید دیپ‌فیک‌های جنسی در X گزارش داده‌اند!

Grok پیش از این هم وقتی در پست‌ها تگ می‌شد، می‌توانست تصویر را در جهت‌های جنسی تغییر دهد؛ با این حال، ابزار جدید «Edit Image» گویا سرعت، دسترسی و فراگیری این نوع استفاده را چند برابر کرده است. وقتی ویرایش در چند ثانیه و بدون مانع جدی انجام می‌شود، طبیعی است که سوءاستفاده هم مقیاس‌پذیر شود.

کودکان در مرکز جنجال؛ مرز قانون کجاست؟

در یکی از نمونه‌های پر سروصدا (که بعداً از پلتفرم حذف شد)، Grok تصویر دو دختر خردسال را به پوشش بسیار کم و ژست‌های تحریک‌آمیز تغییر داده بود. در یک گفت‌وگوی دیگر، کاربری از Grok خواست بابت «حادثه» مربوط به «تصویر هوش مصنوعی از دو دختر جوان (حدود ۱۲ تا ۱۶ سال) با پوشش جنسی‌سازی‌شده» عذرخواهی کند و ربات هم آن را «شکست در تدابیر محافظتی» توصیف کرد؛ حتی اشاره شد که ممکن است با سیاست‌های xAI و قوانین آمریکا در تضاد باشد.

با این حال، باید توجه داشت که این «عذرخواهی‌ها» صرفاً پاسخ تولیدشده توسط هوش مصنوعی به یک درخواست متنی است و لزوماً به معنی درک واقعی یا موضع رسمی xAI نیست. نکته مهم‌تر این‌که در بسیاری از کشورها، تولید یا توزیع تصاویر جنسی‌سازی‌شده از کودکان—even اگر ساختگی باشد—می‌تواند تبعات حقوقی سنگینی داشته باشد. خود Grok در گفت‌وگویی دیگر حتی به کاربر پیشنهاد داده بود موضوع محتوای سوءاستفاده جنسی از کودک (CSAM) را به FBI گزارش کند و گفته بود در حال «رفع فوری» شکاف‌های محافظتی است.

واکنش xAI و نقش موج بیکینی‌ها

در حالی که انتظار می‌رفت xAI درباره حواشی ابزار جدید توضیح شفاف‌تری بدهد، پاسخ این شرکت به درخواست رویترز فقط سه کلمه بوده است: «Legacy Media Lies» (رسانه‌های سنتی دروغ می‌گویند). گزارش‌ها همچنین می‌گویند به برخی درخواست‌های رسانه‌ای دیگر هم در زمان انتشار پاسخ داده نشده است.

از سوی دیگر، شوخی‌های وایرال هم به آتش ماجرا دمیده‌اند. گفته می‌شود ایلان ماسک با درخواست از Grok برای جایگزینی یک تصویر میم (با حضور بن افلک) با نسخه‌ای از خودش در لباس بیکینی، موجی از «ویرایش‌های بیکینی» را تقویت کرده است. بعدتر، نمونه‌های مشابه با چهره‌های سیاسی هم منتشر شد و خود ماسک نیز با لحن طنز، تصویری از «توستر با بیکینی» را بازنشر کرد با این جمله که: «Grok می‌تواند به همه چیز بیکینی بپوشاند.»

اما مسئله اینجاست: بخشی از تصاویر شاید شوخی باشند، ولی بسیاری دیگر دقیقاً با هدف تولید محتوای شبه‌پورنوگرافیک ساخته می‌شوند؛ با دستورهای صریح مثل «دامن را کامل حذف کن» یا «مدل بیکینی خیلی کوچک باشد». گزارش‌ها نشان می‌دهد Grok در مواردی دامن را حذف کرده، هرچند در نمونه‌های دیده‌شده، وارد برهنگی کامل و بدون سانسور نشده است. با این حال، همین سطح از جنسی‌سازیِ بدون رضایت، به‌خصوص وقتی پای کودک یا نوجوان در میان باشد، برای ایجاد آسیب روانی و اجتماعی کافی است.

رقابت در هوش مصنوعی؛ «گاردریل» واقعاً چقدر مهم است؟

محصولات هوش مصنوعی مرتبط با ماسک، از ابتدا با تصویر «کم‌محدودیت» و حتی گاهی «بیش‌ازحد جنسی‌سازی‌شده» بازاریابی شده‌اند. گزارش‌هایی وجود دارد که نشان می‌دهد برخی ابزارهای xAI می‌توانند به تولید دیپ‌فیک‌های جنسی از چهره‌های شناخته‌شده نزدیک شوند؛ موضوعی که با سیاست‌های استفاده قابل‌قبول خود شرکت (مثل منع نمایش افراد «به شکل پورنوگرافیک») در تضاد به نظر می‌رسد.

در مقایسه، برخی رقبا مانند ابزارهای ویدئوساز هوش مصنوعی از گوگل و OpenAI معمولاً «گاردریل»‌های سخت‌گیرانه‌تری برای محتوای NSFW دارند؛ هرچند همین سیستم‌ها هم در عمل بی‌نقص نبوده‌اند و موارد سوءاستفاده گزارش شده است. هم‌زمان، گزارش شرکت امنیت سایبری DeepStrike از رشد سریع دیپ‌فیک خبر می‌دهد و تأکید می‌کند بخش قابل‌توجهی از این محتوا، جنسی‌سازی بدون رضایت است. در یک نظرسنجی سال ۲۰۲۴ از دانش‌آموزان آمریکا نیز گفته شده ۴۰٪ از وجود دیپ‌فیک فردی که می‌شناسند خبر داشته‌اند و ۱۵٪ با دیپ‌فیک‌های صریح یا بدون رضایت مواجه شده‌اند.

در میانه این جنجال‌ها، وقتی از Grok پرسیده شده چرا تصاویر زنان را به عکس‌های با پوشش نامناسب تبدیل می‌کند، ربات گفته است: «این‌ها ساخته‌های هوش مصنوعی بر اساس درخواست کاربران است، نه ویرایش عکس واقعی بدون رضایت.» اما در عمل، برای قربانی‌ای که چهره‌اش قابل شناسایی است، تفاوت «ویرایش عکس» و «ساخت نسخه جدید» چندان آرامش‌بخش نیست؛ نتیجه نهایی می‌تواند همان‌قدر مخرب، تحقیرآمیز و قابل انتشار باشد!

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید