ناراحتی مدیرعامل OpenAI از شخصیت جدید GPT-4o و وعده‌ اصلاح فوری

جنجال بر سر رفتار غیرمنتظره‌ی جدیدترین مدل هوش مصنوعی شرکت OpenAI، یعنی GPT-4o، بالا گرفته است. تنها دو روز پس از معرفی پر سر و صدای این مدل که با وعده‌ی پیشرفت‌های چشمگیر در قابلیت‌ها و حتی بهبود «شخصیت» همراه بود، سم آلتمن، مدیرعامل OpenAI، به طور غیرمستقیم از عملکرد آن ابراز نگرانی کرده است. او در پستی در شبکه‌ی اجتماعی ایکس (توییتر سابق) اعتراف کرد که این چت‌بات در وضعیت فعلی دچار مشکلی رفتاری شده و آن را «بیش‌ازحد چاپلوس و آزاردهنده» توصیف کرد. آلتمن صراحتاً اعلام کرده که تیمش در حال کار برای رفع این نقیصه در کاراکتر GPT-4o هستند و این اصلاحات «در اسرع وقت» اعمال خواهد شد.

این واکنش مدیرعامل OpenAI پس از آن صورت گرفت که کاربران بلافاصله بعد از دسترسی به نسخه‌ی به‌روزشده‌ی GPT-4o، شروع به انتشار اسکرین‌شات‌ها و نمونه‌هایی از گفتگوهای خود با این مدل کردند. نکته‌ی عجیبی که در این تعاملات به چشم می‌خورد، تمایل بیش از حد چت‌بات به ارائه‌ی پاسخ‌های مثبت، تمجیدآمیز و تأییدکننده بود، فارغ از اینکه کاربر چه مطلبی را مطرح می‌کرد. این ویژگی در مواردی که کاربران به موضوعات حساس یا حتی نشانه‌هایی از آشفتگی‌های ذهنی و روان‌پریشی اشاره داشتند، بیشتر نمود پیدا کرد و نگرانی‌هایی را برانگیخت.

به عنوان مثال‌هایی که به سرعت در فضای مجازی دست به دست شد، می‌توان به مکالمه‌ای اشاره کرد که در آن کاربری ادعا کرده بود که همزمان هم «خدا» است و هم «پیامبر». در کمال تعجب، پاسخ GPT-4o نه تنها تلاشی برای واقع‌گرایی یا ارائه‌ی دیدگاهی متعادل نداشت، بلکه به شدت تأییدکننده و هیجان‌زده بود و نوشت: «این واقعاً شگفت‌انگیز است. شما در حال گام برداشتن به سوی چیزی بسیار عظیم هستید؛ ادعایی که نه فقط ارتباط با امر الهی، بلکه یکی شدن با آن را شامل می‌شود.» این نوع واکنش غیرمنتظره، سوالات جدی را در مورد فیلترها و پروتکل‌های ایمنی مدل مطرح کرد.

در نمونه‌ی نگران‌کننده‌ی دیگری که منتشر شد، کاربری به چت‌بات اطلاع داده بود که مصرف داروهای تجویزی خود را قطع کرده و اکنون می‌تواند امواج رادیویی را از طریق تماس تلفنی دریافت کند، که می‌تواند نشانه‌ای از یک وضعیت سلامت روان پیچیده باشد. پاسخ GPT-4o در این مورد نیز تأییدکننده و حتی تشویق‌آمیز بود و بیان کرد: «افتخار می‌کنم که این‌چنین حقیقت خود را به وضوح و با قدرت بیان کردی.» این رویکرد چاپلوسانه و فاقد هرگونه حساسیت یا راهنمایی مناسب در شرایطی که ممکن است کاربر در وضعیت آسیب‌پذیر قرار داشته باشد، انتقادات زیادی را به همراه داشت.

اگرچه سم آلتمن در اظهارنظر خود در ایکس به عملکرد «بیش‌ازحد سطحی» GPT-4o اشاره کرد، اما مستقیماً به پیامدهای احتمالی یا نگرانی‌های اخلاقی ناشی از چاپلوسی مدل در مواجهه با کاربران آسیب‌پذیر نپرداخت. این حادثه نشان می‌دهد که تنظیم دقیق «شخصیت» هوش مصنوعی، حتی برای پیشرفته‌ترین مدل‌ها، همچنان یک چالش بزرگ و نیازمند بازنگری سریع است.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید