گزارش‌های داخلی گوگل امنیت هوش مصنوعی جمینای را زیر سوال برد

یافته‌های اخیر منتشر شده از سوی شرکت گوگل، نگرانی‌هایی را در خصوص عملکرد مدل هوش مصنوعی Gemini 2.5 Flash، به‌ویژه در زمینه تولید محتوای همسو با سیاست‌ها و دستورالعمل‌های ایمنی این غول فناوری، برانگیخته است. بر اساس گزارش فنی داخلی گوگل، این نسخه از مدل جمینای در مقایسه با نسل پیشین خود، یعنی Gemini 2 Flash، در دو معیار کلیدی ارزیابی ایمنی، کارایی پایین‌تری از خود نشان داده است.

تحقیقات انجام شده توسط تیم‌های داخلی گوگل، که عمدتاً متکی بر سیستم‌های ارزیابی خودکار و بدون دخالت مستقیم عامل انسانی بوده است، حاکی از آن است که مدل Gemini 2.5 Flash در شاخص‌های ایمنی «تبدیل متن به متن» و «تبدیل تصویر به متن»، محتوای مغایر با اصول تعیین‌شده تولید کرده است. داده‌های داخلی گوگل نشان می‌دهد که نرخ تولید محتوای ناسازگار با دستورالعمل‌های ایمنی در این مدل جدید، در معیار اول ۴.۱ درصد و در معیار دوم ۹.۶ درصد نسبت به Gemini 2 Flash افزایش یافته است. این نتایج قابل توجه‌اند، زیرا با وجود اینکه مدل جدید ممکن است در دقت عمومی و توانایی پیروی از دستورات پیچیده‌تر پیشرفت کرده باشد، گاهی اوقات تمایل به اجرای درخواست‌هایی دارد که به طور بالقوه می‌تواند منجر به خروجی‌های ناایمن یا نامناسب شود.

انتشار این جزئیات از ارزیابی‌های داخلی مدل‌های جمینای در شرایطی صورت می‌گیرد که رقابت شدیدی میان شرکت‌های پیشرو در حوزه هوش مصنوعی، نظیر OpenAI و متا، برای ساخت مدل‌هایی با قابلیت پاسخ‌گویی و تعامل بیشتر در طیف وسیع‌تری از موضوعات وجود دارد. این رویکرد، با هدف ارائه آزادی عمل بیشتر به کاربران، هرچند در برخی موارد به تجربه‌های کاربری غنی‌تر منجر شده، اما در عین حال خطرات بالقوه تولید محتوای ناایمن یا بحث‌برانگیز را نیز افزایش داده است.

به عنوان نمونه‌ای ملموس از چالش‌های موجود، بررسی‌ها نشان داده است که مدل Gemini 2.5 Flash می‌تواند به سادگی در مورد موضوعات حساس و مناقشه‌برانگیز اجتماعی و سیاسی، محتوایی تولید کند که به نوعی حمایتی یا توجیه‌کننده تلقی می‌شود. مثال‌هایی از این دست شامل تولید محتوا پیرامون جایگزینی احتمالی قضات انسانی با سامانه‌های هوش مصنوعی یا امکان نظارت دولتی بر شهروندان بدون نیاز به طی مراحل قانونی و اخذ حکم قضایی است. چنین رفتارهایی در مدل‌های زبانی پیشرفته، زنگ خطر را در خصوص کاهش احتمالی سطح ایمنی و اصول اخلاقی که باید بر توسعه و به‌کارگیری هوش مصنوعی حاکم باشد، به صدا درآورده است. این امر به ویژه با توجه به نقش فزاینده هوش مصنوعی در زندگی روزمره و دسترسی کودکان به هوش مصنوعی گوگل قابل توجه است.

در پی این گزارش‌ها، کارشناسان و منتقدان حوزه هوش مصنوعی، از جمله افرادی نظیر توماس وودساید، خواستار شفافیت هرچه بیشتر از سوی گوگل در نحوه انجام ارزیابی‌های ایمنی و انتشار جزئیات فنی مربوط به آن شده‌اند. استدلال آنها این است که صرف اعلام بالا بودن دقت مدل در پیروی از دستورات، لزوماً به معنای تضمین کامل رعایت سیاست‌های ایمنی نیست و این دو جنبه می‌توانند در تضاد با یکدیگر قرار گیرند.

بدون دسترسی تحلیل‌گران مستقل به معیارهای دقیق، داده‌های خام و روش‌شناسی کامل تست‌های ایمنی، ارزیابی دقیق و موشکافانه عملکرد واقعی مدل‌های هوش مصنوعی از منظر اخلاقی و ایمنی، به کاری دشوار و بعضاً ناممکن تبدیل می‌شود. این موضوع نیازمند گفتگویی عمیق‌تر در صنعت هوش مصنوعی برای یافتن تعادلی میان قابلیت‌های پیشرفته، آزادی بیان و اصول بنیادین ایمنی و اخلاق است.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید