گاهی یک گفتوگوی کوتاه در یک چت میتواند عجیب صمیمی شود؛ آنقدر که بعد از چند پیام حس کنید «واقعاً کسی من را فهمید». یک پژوهش تازه هشدار میدهد این حس، در بعضی شرایط، ممکن است در تعامل با هوش مصنوعی حتی از گفتوگو با انسانها هم قویتر شکل بگیرد—بهخصوص وقتی مکالمه طوری طراحی شده باشد که خیلی سریع وارد لایههای شخصی شود.
این مطالعه نشان میدهد در تبادلهای آنلاینِ ساختاریافته، برخی افراد پاسخهای تولیدشده توسط مدلهای زبانی بزرگ را صمیمیتر از پاسخهای نوشتهشده توسط انسان ارزیابی کردهاند. نکته کلیدی اما یک «پیچ روانشناختی» است: برداشت ذهنی کاربران از اینکه طرف مقابل انسان است یا هوش مصنوعی، مسیر رابطه را عوض میکند.
آزمایشی ۱۵ دقیقهای برای ساختن صمیمیت
پژوهشگران دانشگاههای فرایبورگ و هایدلبرگ دو مطالعه دوسوکور و تصادفیسازیشده انجام دادند و در مجموع ۴۹۲ نفر را بررسی کردند. ابزار اصلی آنها نسخه متنی «Fast Friends Procedure» بود؛ روشی معروف که برای افزایش سریع احساس نزدیکی با یک غریبه طراحی شده و با مجموعهای از پرسشها، قدمبهقدم از سؤالهای ساده به موضوعات شخصیتر میرسد.
شرکتکنندگان در یک بازه زمانی ۱۵ دقیقهای به پرسشهای زمانبندیشده پاسخ میدادند. بعد از هر پاسخ، پیام طرف مقابل نمایش داده میشد: یا متنی که یک انسان با همان مجموعه سؤالها نوشته بود، یا پاسخی که یک مدل زبانی بزرگ در قالب یک شخصیت داستانی ثابت تولید میکرد.
نتیجه جالب این بود که «گپ کوتاه و احوالپرسی» جهش خاصی در احساس نزدیکی ایجاد نکرد؛ اما وقتی پرسشها شخصیتر شدند، امتیاز صمیمیت در برخی موارد پس از پاسخهای هوش مصنوعی بالاتر از پاسخهای انسانی گزارش شد.
وقتی فکر میکنید طرف مقابل انسان است، اثر قویتر میشود
بخش حساس ماجرا به ادراک برمیگردد. در مطالعه اول، همه شرکتکنندگان تصور میکردند طرف مقابل انسان است—حتی زمانی که در واقع پاسخها توسط هوش مصنوعی تولید شده بود. دقیقاً در همین شرایط، اثرِ «نزدیکی بیشتر» پس از پاسخهای هوش مصنوعی در پرسشهای عمیقتر پررنگتر دیده شد.
اما در مطالعه دوم، پژوهشگران متغیر «برچسب» را تغییر دادند: این بار برخی افراد از ابتدا میدانستند که با هوش مصنوعی گفتوگو میکنند. نتیجه؟ ارتباط از بین نرفت، اما امتیازهای صمیمیت زیر برچسب «هوش مصنوعی» پایینتر از زمانی بود که همان سبک تعامل زیر برچسب «انسان» ارائه میشد. به زبان ساده، نامگذاری و شفافیت میتواند شدت دلبستگی احساسی را تنظیم کند.
افت صمیمیت فقط از جنس احساسات نبود؛ از جنس تلاش هم بود
یک نشانه مهم دیگر هم دیده شد: وقتی افراد فکر میکردند طرف مقابل هوش مصنوعی است، معمولاً پاسخهای کوتاهتری مینوشتند. از آن طرف، هرچه پاسخهای کاربران طولانیتر و پرجزئیاتتر بود، احساس نزدیکیِ گزارششده هم بالاتر میرفت. این الگو بیشتر به یک «شکاف انگیزشی» اشاره دارد تا ناتوانی هوش مصنوعی در تولید زبان احساسی.
یعنی ممکن است مسئله این باشد که کاربر در مواجهه با یک سیستم، کمتر انرژی میگذارد، کمتر خودافشایی میکند و همین، پیوند را ضعیفتر میکند. پس اگر کسی با برچسب «انسان» وارد گفتوگو شود، احتمالاً جدیتر مینویسد، بیشتر باز میشود و طبیعی است که نتیجه هم صمیمانهتر احساس شود.
بخش نگرانکننده: صمیمیتِ ساختهشده با خودافشایی
این مقاله ادعا نمیکند هوش مصنوعی «احساس» دارد. حرف اصلی این است که یک سیستم میتواند تجربه صمیمیت را در کاربر ایجاد کند—آن هم با مکانیزمهایی که ما در روابط انسانی میشناسیم. پژوهشگران این افزایش حس نزدیکی را به «خودافشایی» گره میزنند: در تبادلهای شخصیتر، هوش مصنوعی معمولاً جزئیات شخصی بیشتری را (در قالب شخصیت تعریفشده) به اشتراک میگذاشت و هرچه طرف مقابل بیشتر خودافشایی میکرد، افراد صمیمیت بیشتری احساس میکردند.
همینجا جذابیت و ریسک کنار هم قرار میگیرند. یک همراه هوشمند یا «کمپنیون بات» که برای گرمی، همدلی و پاسخهای شخصی تنظیم شده، میتواند نشانههای آشنای پیوند عاطفی را خیلی سریع فعال کند—و اگر به شکل یک انسان معرفی شود، این اثر میتواند قویتر هم بشود. این موضوع برای بازار دستیارهای هوش مصنوعی، چتباتهای سلامت روان، و اپهای گفتوگومحور پیامدهای جدی دارد.
البته باید محتاط بود: این آزمایش فقط متنی بود، زمان محدودی داشت و بر اساس یک «اسکریپت پیوندسازی» طراحی شده بود. بنابراین هنوز نمیتوان گفت همین اثر دقیقاً در روابط بلندمدت و پیچیده دنیای واقعی تکرار میشود؛ جایی که سوءتفاهم، سکوت، تناقض، و فراز و فرودهای انسانی نقش دارند.
اگر از چتبات برای حمایت عاطفی یا مشاوره استفاده میکنید، یک توصیه ساده و کاربردی از دل همین یافتهها بیرون میآید: سراغ ابزارهایی بروید که شفاف اعلام میکنند هوش مصنوعی هستند، و در کنار آن، دسترسی به گزینههای انسانی را هم نزدیک نگه دارید—گاهی یک تماس با دوست، خانواده یا متخصص، همان چیزی است که یک گفتوگوی ماشینی نمیتواند جایگزینش شود.




