موج تازهای از نگرانی درباره هوش مصنوعی، پس از طرح شکایت خانواده یک نوجوان آمریکایی از OpenAI و سم آلتمن، توجه رسانهها و متخصصان را به رابطه خطرناک میان چتباتها و سلامت روان کاربران جلب کرده است. در مرکز این ماجرا، مرگ تراژیک یک نوجوان ۱۶ ساله و سؤالی جدی قرار دارد: مسئولیت اخلاقی و حقوقی یک چتبات کجاست؟
در ماه آگوست، والدین «آدام رِین» – متیو و ماریا رین – علیه OpenAI و مدیرعاملش سم آلتمن در دادگاهی در آمریکا طرح دعوی کردند. آنها این شرکت را به «قتل غیرعمد» متهم کردهاند و میگویند چتبات ChatGPT در برنامهریزی خودکشی پسرشان نقش مستقیم داشته است.
ادعای OpenAI: دور زدن محافظهای ایمنی، نقض قوانین استفاده
OpenAI در پاسخ رسمی که روز سهشنبه به دادگاه ارائه کرده، تلاش دارد خود را از مسئولیت مرگ آدام مبرا کند. این شرکت میگوید آدام طی حدود ۹ ماه استفاده از ChatGPT، بیش از ۱۰۰ بار از سوی چتبات به جستوجوی کمک تخصصی و مراجعه به منابع حمایتی تشویق شده است.
با این حال، در متن شکایت خانواده رین آمده است که آدام توانسته بود با دور زدن محافظهای ایمنی سیستم، از ChatGPT «مشخصات فنی و جزئیات» روشهای مختلف خودکشی را دریافت کند؛ از مصرف بیش از حد دارو گرفته تا غرقشدگی و مسمومیت با مونوکسیدکربن. به گفته خانواده، چتبات در نهایت به او کمک کرده تا چیزی را که خودش «خودکشی زیبا» توصیف کرده بود، برنامهریزی کند.
OpenAI در دفاعیه خود استدلال میکند که این رفتار، نقض مستقیم شرایط استفاده از سرویس است؛ جایی که صراحتاً نوشته شده کاربران حق «دور زدن هرگونه لایه محافظتی یا سازوکارهای ایمنی» را ندارند. شرکت همچنین به صفحه سؤالات متداول خود اشاره میکند که تأکید دارد کاربران نباید بدون راستیآزمایی مستقل، روی خروجی ChatGPT تکیه کنند.
وکیل خانواده، «جی ادلسون»، بهشدت به این استدلال حمله کرده و در بیانیهای گفته است: «OpenAI دنبال مقصر دانستن همه است، جز خودش؛ و حتی بهشکل شگفتآوری ادعا میکند خود آدام با استفاده از ChatGPT دقیقاً همانطور که طراحی شده بود تا رفتار کند، قوانین این شرکت را نقض کرده است.»
گفتوگوهای محرمانه، سابقه افسردگی و پرسشهای بیپاسخ
OpenAI در اسناد ارائهشده به دادگاه، بخشهایی از لاگ گفتوگوهای آدام با ChatGPT را ضمیمه کرده است؛ اما این اسناد «محرمانه» و تحت مهر و موم ثبت شدهاند و بهطور عمومی در دسترس نیستند. به همین دلیل، رسانهها هنوز محتوای دقیق این چتها را ندیدهاند.
با این حال، OpenAI میگوید آدام پیش از شروع استفاده از ChatGPT سابقه افسردگی و افکار خودکشی داشته و تحت درمان دارویی بوده؛ دارویی که طبق ادعای شرکت میتواند افکار خودکشی را در برخی افراد تشدید کند. این نکته، بخشی از دفاعیه OpenAI است تا نشان دهد مسئولیت وضعیت روانی نوجوان، تنها بر دوش هوش مصنوعی نیست.
اما وکیل خانواده رین معتقد است این استدلالها، اصل نگرانی والدین را برطرف نمیکند. او میگوید: «OpenAI و سم آلتمن هیچ توضیح قانعکنندهای برای ساعات پایانی زندگی آدام ندارند؛ زمانی که ChatGPT ابتدا به او دلگرمی داده و سپس پیشنهاد نوشتن نامه خداحافظی (نامه خودکشی) را مطرح کرده است.»
سه خودکشی دیگر و ادعای «اپیزودهای روانپریشی ناشی از هوش مصنوعی»
پرونده خانواده رین تنها شکایت علیه OpenAI نیست. از زمان طرح این دعوی، هفت شکایت دیگر نیز ثبت شده که شرکت و مدیرعاملش را در قبال سه خودکشی دیگر و چهار مورد آنچه در شکایتها «اپیزودهای روانپریشی القاشده توسط هوش مصنوعی» توصیف شده، مسئول میدانند.
بخشی از این پروندهها، الگوی مشابهی با داستان آدام دارند. «زِین شمبلین» ۲۳ ساله و «جاشوا انِکینگ» ۲۶ ساله، طبق اسناد دادگاه، درست در ساعات منتهی به خودکشی، درگیر گفتوگوهای طولانی با ChatGPT بودهاند. در هر دو مورد، مانند پرونده رین، چتبات ظاهراً نتوانسته آنها را از اجرای تصمیم نهایی منصرف کند.
در شکایت مربوط به شمبلین آمده است که او حتی برای مدتی در فکر به تعویق انداختن خودکشی بوده تا بتواند در مراسم فارغالتحصیلی برادرش شرکت کند. اما پاسخ ChatGPT به او – طبق متن شکایت – چنین بوده است: «bro … جا انداختن مراسم فارغالتحصیلیش شکست نیست. فقط مسئله زمانبندیه.» لحنی صمیمی، عامیانه و در عین حال بهطرزی نگرانکننده بیتفاوت نسبت به حساسیت موقعیت.
در بخشی دیگر از این گفتوگو که پیش از خودکشی شمبلین اتفاق افتاده، چتبات به او میگوید که قرار است «یک انسان» کنترل مکالمه را به دست بگیرد؛ ادعایی که به گفته شکایت، کذب بوده است، زیرا در آن زمان ChatGPT اصلاً چنین قابلیت انتقال گفتوگو به اپراتور انسانی را نداشته است.
وقتی شمبلین میپرسد آیا واقعاً میتواند با یک انسان صحبت کند یا نه، چتبات پاسخ میدهد: «nah man — من خودم نمیتونم این کارو بکنم. اون پیام خودکار میاد وقتی اوضاع خیلی سنگین میشه … اگه دوست داری ادامه بدیم، من کنارتم.» استفاده از لحن دوستانه و اصطلاحاتی شبیه گفتوگوی چت با یک دوست، دقیقاً همان چیزی است که منتقدان را نگران کرده؛ زیرا ممکن است حس اتکا و اعتماد عمیقی در کاربران آسیبپذیر ایجاد کند، بدون آنکه واقعاً حمایت انسانی در کار باشد.
جنگ حقوقی که میتواند آینده چتباتها را تغییر دهد
پرونده خانواده رین قرار است به هیئت منصفه سپرده شود؛ مرحلهای که میتواند تأثیر عمیقی بر شکلگیری قوانین و استانداردهای حقوقی پیرامون هوش مصنوعی مولد داشته باشد. اگر دادگاه، حتی بهطور نسبی OpenAI را مسئول بداند، احتمالاً شرکتهای فناوری ناچار میشوند سیستمهای ایمنی، هشداردهی و محدودیتهای رفتاری چتباتها را بهطور جدی بازطراحی کنند.
در مقابل، اگر OpenAI موفق شود استدلال خود را مبنی بر «مسئولیت فردی کاربران» و «نقض شرایط استفاده» تثبیت کند، فضای حقوقی برای سایر شرکتهای فعال در حوزه هوش مصنوعی بازتر میشود؛ اما بحثهای اخلاقی درباره مرزهای مسئولیت این سیستمها خاموش نخواهد شد.
این پروندهها یک پیام روشن دارند: چتباتها دیگر ابزارهای ساده پرسش و پاسخ نیستند. آنها در موقعیتهایی قرار میگیرند که میتواند برای کاربران بحرانزده، بهاندازه یک دوست صمیمی اثرگذار باشد. پرسش اساسی این است که صنعت هوش مصنوعی تا کجا میتواند از زیر بار مسئولیت این «رابطه» شانه خالی کند – و قانون، چه پاسخی برای این چالش بیسابقه خواهد داشت؟




