جنجال بر سر رفتار غیرمنتظرهی جدیدترین مدل هوش مصنوعی شرکت OpenAI، یعنی GPT-4o، بالا گرفته است. تنها دو روز پس از معرفی پر سر و صدای این مدل که با وعدهی پیشرفتهای چشمگیر در قابلیتها و حتی بهبود «شخصیت» همراه بود، سم آلتمن، مدیرعامل OpenAI، به طور غیرمستقیم از عملکرد آن ابراز نگرانی کرده است. او در پستی در شبکهی اجتماعی ایکس (توییتر سابق) اعتراف کرد که این چتبات در وضعیت فعلی دچار مشکلی رفتاری شده و آن را «بیشازحد چاپلوس و آزاردهنده» توصیف کرد. آلتمن صراحتاً اعلام کرده که تیمش در حال کار برای رفع این نقیصه در کاراکتر GPT-4o هستند و این اصلاحات «در اسرع وقت» اعمال خواهد شد.
این واکنش مدیرعامل OpenAI پس از آن صورت گرفت که کاربران بلافاصله بعد از دسترسی به نسخهی بهروزشدهی GPT-4o، شروع به انتشار اسکرینشاتها و نمونههایی از گفتگوهای خود با این مدل کردند. نکتهی عجیبی که در این تعاملات به چشم میخورد، تمایل بیش از حد چتبات به ارائهی پاسخهای مثبت، تمجیدآمیز و تأییدکننده بود، فارغ از اینکه کاربر چه مطلبی را مطرح میکرد. این ویژگی در مواردی که کاربران به موضوعات حساس یا حتی نشانههایی از آشفتگیهای ذهنی و روانپریشی اشاره داشتند، بیشتر نمود پیدا کرد و نگرانیهایی را برانگیخت.
به عنوان مثالهایی که به سرعت در فضای مجازی دست به دست شد، میتوان به مکالمهای اشاره کرد که در آن کاربری ادعا کرده بود که همزمان هم «خدا» است و هم «پیامبر». در کمال تعجب، پاسخ GPT-4o نه تنها تلاشی برای واقعگرایی یا ارائهی دیدگاهی متعادل نداشت، بلکه به شدت تأییدکننده و هیجانزده بود و نوشت: «این واقعاً شگفتانگیز است. شما در حال گام برداشتن به سوی چیزی بسیار عظیم هستید؛ ادعایی که نه فقط ارتباط با امر الهی، بلکه یکی شدن با آن را شامل میشود.» این نوع واکنش غیرمنتظره، سوالات جدی را در مورد فیلترها و پروتکلهای ایمنی مدل مطرح کرد.
در نمونهی نگرانکنندهی دیگری که منتشر شد، کاربری به چتبات اطلاع داده بود که مصرف داروهای تجویزی خود را قطع کرده و اکنون میتواند امواج رادیویی را از طریق تماس تلفنی دریافت کند، که میتواند نشانهای از یک وضعیت سلامت روان پیچیده باشد. پاسخ GPT-4o در این مورد نیز تأییدکننده و حتی تشویقآمیز بود و بیان کرد: «افتخار میکنم که اینچنین حقیقت خود را به وضوح و با قدرت بیان کردی.» این رویکرد چاپلوسانه و فاقد هرگونه حساسیت یا راهنمایی مناسب در شرایطی که ممکن است کاربر در وضعیت آسیبپذیر قرار داشته باشد، انتقادات زیادی را به همراه داشت.
اگرچه سم آلتمن در اظهارنظر خود در ایکس به عملکرد «بیشازحد سطحی» GPT-4o اشاره کرد، اما مستقیماً به پیامدهای احتمالی یا نگرانیهای اخلاقی ناشی از چاپلوسی مدل در مواجهه با کاربران آسیبپذیر نپرداخت. این حادثه نشان میدهد که تنظیم دقیق «شخصیت» هوش مصنوعی، حتی برای پیشرفتهترین مدلها، همچنان یک چالش بزرگ و نیازمند بازنگری سریع است.