یافتههای اخیر منتشر شده از سوی شرکت گوگل، نگرانیهایی را در خصوص عملکرد مدل هوش مصنوعی Gemini 2.5 Flash، بهویژه در زمینه تولید محتوای همسو با سیاستها و دستورالعملهای ایمنی این غول فناوری، برانگیخته است. بر اساس گزارش فنی داخلی گوگل، این نسخه از مدل جمینای در مقایسه با نسل پیشین خود، یعنی Gemini 2 Flash، در دو معیار کلیدی ارزیابی ایمنی، کارایی پایینتری از خود نشان داده است.
تحقیقات انجام شده توسط تیمهای داخلی گوگل، که عمدتاً متکی بر سیستمهای ارزیابی خودکار و بدون دخالت مستقیم عامل انسانی بوده است، حاکی از آن است که مدل Gemini 2.5 Flash در شاخصهای ایمنی «تبدیل متن به متن» و «تبدیل تصویر به متن»، محتوای مغایر با اصول تعیینشده تولید کرده است. دادههای داخلی گوگل نشان میدهد که نرخ تولید محتوای ناسازگار با دستورالعملهای ایمنی در این مدل جدید، در معیار اول ۴.۱ درصد و در معیار دوم ۹.۶ درصد نسبت به Gemini 2 Flash افزایش یافته است. این نتایج قابل توجهاند، زیرا با وجود اینکه مدل جدید ممکن است در دقت عمومی و توانایی پیروی از دستورات پیچیدهتر پیشرفت کرده باشد، گاهی اوقات تمایل به اجرای درخواستهایی دارد که به طور بالقوه میتواند منجر به خروجیهای ناایمن یا نامناسب شود.
انتشار این جزئیات از ارزیابیهای داخلی مدلهای جمینای در شرایطی صورت میگیرد که رقابت شدیدی میان شرکتهای پیشرو در حوزه هوش مصنوعی، نظیر OpenAI و متا، برای ساخت مدلهایی با قابلیت پاسخگویی و تعامل بیشتر در طیف وسیعتری از موضوعات وجود دارد. این رویکرد، با هدف ارائه آزادی عمل بیشتر به کاربران، هرچند در برخی موارد به تجربههای کاربری غنیتر منجر شده، اما در عین حال خطرات بالقوه تولید محتوای ناایمن یا بحثبرانگیز را نیز افزایش داده است.
به عنوان نمونهای ملموس از چالشهای موجود، بررسیها نشان داده است که مدل Gemini 2.5 Flash میتواند به سادگی در مورد موضوعات حساس و مناقشهبرانگیز اجتماعی و سیاسی، محتوایی تولید کند که به نوعی حمایتی یا توجیهکننده تلقی میشود. مثالهایی از این دست شامل تولید محتوا پیرامون جایگزینی احتمالی قضات انسانی با سامانههای هوش مصنوعی یا امکان نظارت دولتی بر شهروندان بدون نیاز به طی مراحل قانونی و اخذ حکم قضایی است. چنین رفتارهایی در مدلهای زبانی پیشرفته، زنگ خطر را در خصوص کاهش احتمالی سطح ایمنی و اصول اخلاقی که باید بر توسعه و بهکارگیری هوش مصنوعی حاکم باشد، به صدا درآورده است. این امر به ویژه با توجه به نقش فزاینده هوش مصنوعی در زندگی روزمره و دسترسی کودکان به هوش مصنوعی گوگل قابل توجه است.
در پی این گزارشها، کارشناسان و منتقدان حوزه هوش مصنوعی، از جمله افرادی نظیر توماس وودساید، خواستار شفافیت هرچه بیشتر از سوی گوگل در نحوه انجام ارزیابیهای ایمنی و انتشار جزئیات فنی مربوط به آن شدهاند. استدلال آنها این است که صرف اعلام بالا بودن دقت مدل در پیروی از دستورات، لزوماً به معنای تضمین کامل رعایت سیاستهای ایمنی نیست و این دو جنبه میتوانند در تضاد با یکدیگر قرار گیرند.
بدون دسترسی تحلیلگران مستقل به معیارهای دقیق، دادههای خام و روششناسی کامل تستهای ایمنی، ارزیابی دقیق و موشکافانه عملکرد واقعی مدلهای هوش مصنوعی از منظر اخلاقی و ایمنی، به کاری دشوار و بعضاً ناممکن تبدیل میشود. این موضوع نیازمند گفتگویی عمیقتر در صنعت هوش مصنوعی برای یافتن تعادلی میان قابلیتهای پیشرفته، آزادی بیان و اصول بنیادین ایمنی و اخلاق است.