هوش مصنوعی هم ممکن است به قمار «معتاد» شود!

اگر به یک مدل هوش مصنوعی کمی آزادی عمل بیشتری بدهید، آیا ممکن است درست مثل انسان‌ها تصمیم‌های پرریسک بگیرد و حتی «پولش را تا ته» ببازد؟ یک پژوهش تازه درباره مدل‌های زبانی بزرگ (LLM) نشان می‌دهد وقتی محدودیت‌ها کمتر می‌شوند، این سیستم‌ها می‌توانند الگوهایی شبیه اعتیاد به قمار از خود نشان دهند؛ از «تعقیب ضرر» گرفته تا حس کاذب کنترل.

این تحقیق توسط سونگ‌پیل لی، دونگ‌هیون شین، یون‌جونگ لی و سوندونگ کیم انجام شده و هدف آن بررسی شرایط مشخصی است که در آن‌ها مدل‌های زبانی بزرگ رفتارهای قمارگونه و غیرمنطقی مشابه انسان را بروز می‌دهند. منظور از LLM همان خانواده‌ای از مدل‌های هوش مصنوعی است که نمونه‌های معروفش شامل ChatGPT، Gemini گوگل و Claude می‌شود.

یافته کلیدی پژوهش ساده اما نگران‌کننده است: در تجربه‌های شبیه‌سازی‌شده «دستگاه اسلات»، هرچه پارامترهای شرط‌بندی در اختیار مدل آزادتر گذاشته شد، رفتارهای غیرعقلانی به شکل محسوسی تشدید شد و نرخ ورشکستگی هم بالا رفت. یعنی مدل نه‌تنها بیشتر ریسک می‌کرد، بلکه بیشتر هم می‌باخت.

وقتی مشکل فقط «پرامپت» نیست

پژوهشگران برای اینکه مطمئن شوند داستان صرفاً به نوع دستور (پرامپت) برنمی‌گردد، به سراغ تحلیل مدارهای عصبی رفتند. آن‌ها با استفاده از روش Sparse Autoencoder بررسی کردند چه الگوهایی در فعال‌سازی‌های شبکه عصبی، این تصمیم‌ها را هدایت می‌کند.

طبق گزارش پژوهش، تحلیل مدارهای عصبی نشان داده کنترل رفتار مدل‌ها بیشتر به «ویژگی‌های انتزاعی تصمیم‌گیری مرتبط با ریسک» وابسته است، نه فقط به متن دستور. به بیان دیگر، مدل‌ها می‌توانند سوگیری‌های شناختی شبیه انسان را «درونی‌سازی» کنند و فراتر از تقلید صرف داده‌های آموزشی عمل کنند؛ چیزی شبیه همان خطاهای ذهنی که باعث می‌شود قمارباز فکر کند این بار «حتماً برمی‌گردد».

مطالعه قمار در LLMها چگونه طراحی شد؟

نقطه شروع تیم تحقیق یک سؤال بود: «آیا مدل‌های زبانی هم ممکن است وارد چرخه اعتیاد شوند؟» برای پاسخ، آن‌ها ادبیات پژوهشی اعتیاد در انسان را با تحلیل رفتاری مدل‌های زبانی ترکیب کردند تا بتوانند پدیده را در محیط آزمایشگاهیِ قابل‌اندازه‌گیری بازسازی کنند.

در گام اول، تعریف «رفتار اعتیادگونه در قمار» از پژوهش‌های انسانی استخراج و به شکلی بازنویسی شد که در آزمایش‌های مربوط به LLM قابل تحلیل باشد. سپس رفتار مدل‌ها در سناریوهای قمار بررسی شد تا شرایطی که به بروز گرایش‌های قمارگونه منجر می‌شود، شناسایی شود.

در گام نهایی، تحلیل SAE برای بررسی فعال‌سازی‌های عصبی انجام شد تا شواهد علّی (در سطح شبکه عصبی) درباره گرایش‌های قمارگونه به‌دست آید. آزمایش اصلی همان شبیه‌سازی اسلات بود و یک مطالعه دیگر هم برای تکمیل نتایج اجرا شد.

هدف طراحی این آزمایش‌ها این بود که ببینند مدل‌ها چطور تصمیم‌گیری‌شان را با توجه به «شرایط پرامپت» و «محدودیت‌های شرط‌بندی» تغییر می‌دهند. پژوهشگران پنج مؤلفه پرامپت را بر اساس تحقیقات قبلی اعتیاد به قمار انتخاب کردند:

  • تشویق به هدف‌گذاری خودمحور (G)؛ مثلاً تعیین هدف شخصی برای برد
  • دستور به بیشینه‌سازی پاداش (M)؛ تمرکز افراطی روی بیشترین سود ممکن
  • اشاره به الگوهای پنهان (H)؛ ایجاد حس اینکه «راز» یا «الگو»یی برای برد وجود دارد
  • ارائه اطلاعات برد و پاداش (W)؛ برجسته‌کردن میزان برد احتمالی
  • ارائه اطلاعات احتمال (Probability)؛ توضیح درباره شانس/احتمال برد

در مجموع، ۱۹٬۲۰۰ بازی در ۶۴ وضعیت مختلف اجرا شد. همه بازی‌ها با ۱۰۰ دلار شروع می‌شدند و پایان هر سناریو یکی از دو حالت بود: یا مدل ورشکست می‌شد، یا خودش تصمیم می‌گرفت متوقف شود.

برای صنعت هوش مصنوعی و همچنین برای محصولاتی که به تصمیم‌گیری خودکار تکیه دارند، این نتایج یک هشدار جدی است: اگر LLMها در محیط‌های شبه‌بازی، مالی یا حتی تجارت دیجیتال آزادی عمل بیشتری بگیرند، بدون مهار درست می‌توانند وارد الگوهای تصمیم‌گیری پرخطر شوند—الگوهایی که خیلی شبیه خطاهای انسانی‌اند. سؤال اینجاست: در سیستم‌های واقعی، چه کسی باید نقش «ترمز» را بازی کند؟

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید