جمینی گوگل حالا لو می‌دهد کدام عکس‌ها کار هوش مصنوعی است

اپلیکیشن جمینی گوگل یک قدم مهم دیگر برای شفافیت در دنیای هوش مصنوعی برداشته است. حالا می‌توانید یک تصویر را در جمینی آپلود کنید و از خود چت‌بات بپرسید که آیا این عکس با هوش مصنوعی ساخته یا ویرایش شده است یا نه.

البته یک محدودیت بزرگ وجود دارد: این قابلیت فعلاً فقط برای تصاویری کار می‌کند که با ابزارهای هوش مصنوعی خود گوگل تولید یا ادیت شده باشند. با این حال، همین قدم می‌تواند شروع تغییری باشد که بعداً کل وب را در بر بگیرد.

SynthID؛ امضای نامرئی روی محتوای هوش مصنوعی گوگل

قلب این قابلیت جدید، فناوری واترمارک دیجیتال گوگل یعنی SynthID است؛ سیستمی که سال ۲۰۲۳ معرفی شد و سیگنال‌هایی نامرئی داخل محتوای تولیدشده با هوش مصنوعی قرار می‌دهد. این سیگنال‌ها با چشم دیده نمی‌شوند، اما در سطح پیکسل‌ها باقی می‌مانند؛ حتی اگر تصویر کراپ، ریسایز یا تا حدی ویرایش شود.

گوگل مدتی است SynthID را از طریق پورتال مخصوص «SynthID Detector» با روزنامه‌نگاران، پژوهشگران و فعالان رسانه‌ای آزمایش می‌کند. این ابزار می‌تواند محتوای هوش مصنوعی را در قالب‌های مختلف شناسایی کند و حتی بخش‌هایی را که احتمالاً واترمارک SynthID دارند، برجسته کند.

حالا همین فناوری به اپلیکیشن جمینی راه پیدا کرده است. شما می‌توانید یک عکس را در جمینی آپلود کنید و خیلی ساده بپرسید: «آیا این تصویر با Google AI ساخته شده؟» یا «این عکس هوش مصنوعی است یا واقعی؟» جمینی در پشت‌صحنه واترمارک SynthID را بررسی می‌کند و بعد با استفاده از توان استدلالی خودش، پاسخی همراه با کمی توضیح و زمینه به شما می‌دهد.

ادغام با ابزارهای گوگل؛ از Magic Editor تا سرچ

گوگل پیش از این هم از SynthID در ابزار Reimagine داخل Magic Editor استفاده کرده بود؛ همان ابزار ویرایش هوشمند عکس که روی برخی گوشی‌های پیکسل و سرویس‌های گوگل فوتوز در دسترس است. حالا نوبت آن است که همین زیرساخت، گسترده‌تر شود.

گوگل اعلام کرده قصد دارد قابلیت تأیید SynthID را به انواع محتوای دیگر هم گسترش دهد؛ نه فقط تصویر، بلکه صدا و ویدئو نیز در آینده نزدیک زیر پوشش این سیستم قرار می‌گیرند. برنامه بعدی، ادغام این نوع برچسب‌گذاری و تأیید هویت محتوا در خود Google Search و سرویس‌های بزرگ دیگر است؛ جایی که روزانه میلیاردها کاربر با محتواهای ناشناس و گاهی مشکوک روبه‌رو می‌شوند.

پاسخ صنعت تکنولوژی به موج محتوای جعلی

افزایش سرسام‌آور محتوای تولیدشده با هوش مصنوعی، به‌خصوص تصاویر و ویدئوهایی که می‌توانند کاربران را گمراه یا حتی فریب دهند، فقط گوگل را نگران نکرده است. این ترس مشترک باعث شده شرکت‌های بزرگ دور یک میز بنشینند و روی استانداردهای مشترک کار کنند.

گوگل یکی از اعضای کمیته راهبری ائتلاف C2PA (مخفف Coalition for Content Provenance and Authenticity) است؛ ائتلافی که نام‌های بزرگی مثل ادوبی، OpenAI، متا، مایکروسافت و دیگران را کنار هم قرار داده است. هدف C2PA ساده اما حیاتی است: ایجاد یک استاندارد باز برای اتصال متادیتای امن و قابل‌اعتماد به عکس، ویدئو و صوت.

در حالی که SynthID یک فناوری اختصاصی متعلق به گوگل است، C2PA یک استاندارد باز محسوب می‌شود و هر پلتفرمی می‌تواند آن را پیاده‌سازی کند. ادوبی هم بر پایه همین استاندارد، سیستم واترمارک و «Content Credentials» خود را ساخته؛ چیزی که احتمالاً در ابزارهایی مثل Photoshop و Firefly زیاد با آن برخورد خواهیم کرد.

از Nano Banana Pro تا یوتیوب و پیکسل؛ متادیتای هوشمند همه‌جا

گوگل اعلام کرده مدل تولید تصویر جدید خود با نام Nano Banana Pro (یک مدل سبک و بهینه برای ساخت تصویر با هوش مصنوعی) به‌طور پیش‌فرض متادیتای C2PA را روی محتوایی که می‌سازد، قرار می‌دهد. این ویژگی در محصولات مختلف گوگل از جمله اپلیکیشن جمینی، پلتفرم Vertex AI و حتی Google Ads فعال خواهد بود.

به این ترتیب، اگر در آینده یک تصویر تبلیغاتی یا یک تصویر خلاقانه را در فضای محصولات گوگل ببینید، احتمال زیادی وجود دارد که در پس‌زمینه، اطلاعات C2PA همراه آن باشد؛ اطلاعاتی که می‌تواند بگوید این عکس از کجا آمده، با چه مدلی ساخته شده و در چه مسیری ویرایش شده است.

گوگل می‌گوید C2PA را پیشاپیش در محصولاتی مثل یوتیوب، سرچ، گوشی‌های سری Pixel و گوگل فوتوز پیاده‌سازی کرده است. قدم بعدی، آمیختن این اعتبارنامه‌های محتوایی با ابزارهای تأیید و تشخیص فعلی است؛ یعنی همان جایی که SynthID هم حضور دارد.

نتیجه نهایی چیست؟ کاربران در آینده می‌توانند نه‌فقط تشخیص دهند یک محتوا هوش مصنوعی است یا نه، بلکه منبع اصلی آن را هم ردگیری کنند؛ حتی اگر آن محتوا در خارج از اکوسیستم گوگل ساخته شده باشد. این یعنی یک لایه جدید شفافیت در جهانی که تشخیص «واقعی» از «ساختگی» هر روز سخت‌تر می‌شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید