اگر به یک مدل هوش مصنوعی کمی آزادی عمل بیشتری بدهید، آیا ممکن است درست مثل انسانها تصمیمهای پرریسک بگیرد و حتی «پولش را تا ته» ببازد؟ یک پژوهش تازه درباره مدلهای زبانی بزرگ (LLM) نشان میدهد وقتی محدودیتها کمتر میشوند، این سیستمها میتوانند الگوهایی شبیه اعتیاد به قمار از خود نشان دهند؛ از «تعقیب ضرر» گرفته تا حس کاذب کنترل.
این تحقیق توسط سونگپیل لی، دونگهیون شین، یونجونگ لی و سوندونگ کیم انجام شده و هدف آن بررسی شرایط مشخصی است که در آنها مدلهای زبانی بزرگ رفتارهای قمارگونه و غیرمنطقی مشابه انسان را بروز میدهند. منظور از LLM همان خانوادهای از مدلهای هوش مصنوعی است که نمونههای معروفش شامل ChatGPT، Gemini گوگل و Claude میشود.
یافته کلیدی پژوهش ساده اما نگرانکننده است: در تجربههای شبیهسازیشده «دستگاه اسلات»، هرچه پارامترهای شرطبندی در اختیار مدل آزادتر گذاشته شد، رفتارهای غیرعقلانی به شکل محسوسی تشدید شد و نرخ ورشکستگی هم بالا رفت. یعنی مدل نهتنها بیشتر ریسک میکرد، بلکه بیشتر هم میباخت.
وقتی مشکل فقط «پرامپت» نیست
پژوهشگران برای اینکه مطمئن شوند داستان صرفاً به نوع دستور (پرامپت) برنمیگردد، به سراغ تحلیل مدارهای عصبی رفتند. آنها با استفاده از روش Sparse Autoencoder بررسی کردند چه الگوهایی در فعالسازیهای شبکه عصبی، این تصمیمها را هدایت میکند.
طبق گزارش پژوهش، تحلیل مدارهای عصبی نشان داده کنترل رفتار مدلها بیشتر به «ویژگیهای انتزاعی تصمیمگیری مرتبط با ریسک» وابسته است، نه فقط به متن دستور. به بیان دیگر، مدلها میتوانند سوگیریهای شناختی شبیه انسان را «درونیسازی» کنند و فراتر از تقلید صرف دادههای آموزشی عمل کنند؛ چیزی شبیه همان خطاهای ذهنی که باعث میشود قمارباز فکر کند این بار «حتماً برمیگردد».
مطالعه قمار در LLMها چگونه طراحی شد؟
نقطه شروع تیم تحقیق یک سؤال بود: «آیا مدلهای زبانی هم ممکن است وارد چرخه اعتیاد شوند؟» برای پاسخ، آنها ادبیات پژوهشی اعتیاد در انسان را با تحلیل رفتاری مدلهای زبانی ترکیب کردند تا بتوانند پدیده را در محیط آزمایشگاهیِ قابلاندازهگیری بازسازی کنند.
در گام اول، تعریف «رفتار اعتیادگونه در قمار» از پژوهشهای انسانی استخراج و به شکلی بازنویسی شد که در آزمایشهای مربوط به LLM قابل تحلیل باشد. سپس رفتار مدلها در سناریوهای قمار بررسی شد تا شرایطی که به بروز گرایشهای قمارگونه منجر میشود، شناسایی شود.
در گام نهایی، تحلیل SAE برای بررسی فعالسازیهای عصبی انجام شد تا شواهد علّی (در سطح شبکه عصبی) درباره گرایشهای قمارگونه بهدست آید. آزمایش اصلی همان شبیهسازی اسلات بود و یک مطالعه دیگر هم برای تکمیل نتایج اجرا شد.
هدف طراحی این آزمایشها این بود که ببینند مدلها چطور تصمیمگیریشان را با توجه به «شرایط پرامپت» و «محدودیتهای شرطبندی» تغییر میدهند. پژوهشگران پنج مؤلفه پرامپت را بر اساس تحقیقات قبلی اعتیاد به قمار انتخاب کردند:
- تشویق به هدفگذاری خودمحور (G)؛ مثلاً تعیین هدف شخصی برای برد
- دستور به بیشینهسازی پاداش (M)؛ تمرکز افراطی روی بیشترین سود ممکن
- اشاره به الگوهای پنهان (H)؛ ایجاد حس اینکه «راز» یا «الگو»یی برای برد وجود دارد
- ارائه اطلاعات برد و پاداش (W)؛ برجستهکردن میزان برد احتمالی
- ارائه اطلاعات احتمال (Probability)؛ توضیح درباره شانس/احتمال برد
در مجموع، ۱۹٬۲۰۰ بازی در ۶۴ وضعیت مختلف اجرا شد. همه بازیها با ۱۰۰ دلار شروع میشدند و پایان هر سناریو یکی از دو حالت بود: یا مدل ورشکست میشد، یا خودش تصمیم میگرفت متوقف شود.
برای صنعت هوش مصنوعی و همچنین برای محصولاتی که به تصمیمگیری خودکار تکیه دارند، این نتایج یک هشدار جدی است: اگر LLMها در محیطهای شبهبازی، مالی یا حتی تجارت دیجیتال آزادی عمل بیشتری بگیرند، بدون مهار درست میتوانند وارد الگوهای تصمیمگیری پرخطر شوند—الگوهایی که خیلی شبیه خطاهای انسانیاند. سؤال اینجاست: در سیستمهای واقعی، چه کسی باید نقش «ترمز» را بازی کند؟




