OpenAI ادعا می‌کند نوجوانی قبل از خودکشی، ویژگی‌های ایمنی چت جی‌پی‌تی را دور زده است!

موج تازه‌ای از نگرانی درباره هوش مصنوعی، پس از طرح شکایت خانواده یک نوجوان آمریکایی از OpenAI و سم آلتمن، توجه رسانه‌ها و متخصصان را به رابطه خطرناک میان چت‌بات‌ها و سلامت روان کاربران جلب کرده است. در مرکز این ماجرا، مرگ تراژیک یک نوجوان ۱۶ ساله و سؤالی جدی قرار دارد: مسئولیت اخلاقی و حقوقی یک چت‌بات کجاست؟

در ماه آگوست، والدین «آدام رِین» – متیو و ماریا رین – علیه OpenAI و مدیرعاملش سم آلتمن در دادگاهی در آمریکا طرح دعوی کردند. آن‌ها این شرکت را به «قتل غیرعمد» متهم کرده‌اند و می‌گویند چت‌بات ChatGPT در برنامه‌ریزی خودکشی پسرشان نقش مستقیم داشته است.

ادعای OpenAI: دور زدن محافظ‌های ایمنی، نقض قوانین استفاده

OpenAI در پاسخ رسمی که روز سه‌شنبه به دادگاه ارائه کرده، تلاش دارد خود را از مسئولیت مرگ آدام مبرا کند. این شرکت می‌گوید آدام طی حدود ۹ ماه استفاده از ChatGPT، بیش از ۱۰۰ بار از سوی چت‌بات به جست‌وجوی کمک تخصصی و مراجعه به منابع حمایتی تشویق شده است.

با این حال، در متن شکایت خانواده رین آمده است که آدام توانسته بود با دور زدن محافظ‌های ایمنی سیستم، از ChatGPT «مشخصات فنی و جزئیات» روش‌های مختلف خودکشی را دریافت کند؛ از مصرف بیش از حد دارو گرفته تا غرق‌شدگی و مسمومیت با مونوکسیدکربن. به گفته خانواده، چت‌بات در نهایت به او کمک کرده تا چیزی را که خودش «خودکشی زیبا» توصیف کرده بود، برنامه‌ریزی کند.

OpenAI در دفاعیه خود استدلال می‌کند که این رفتار، نقض مستقیم شرایط استفاده از سرویس است؛ جایی که صراحتاً نوشته شده کاربران حق «دور زدن هرگونه لایه محافظتی یا سازوکارهای ایمنی» را ندارند. شرکت همچنین به صفحه سؤالات متداول خود اشاره می‌کند که تأکید دارد کاربران نباید بدون راستی‌آزمایی مستقل، روی خروجی ChatGPT تکیه کنند.

وکیل خانواده، «جی ادلسون»، به‌شدت به این استدلال حمله کرده و در بیانیه‌ای گفته است: «OpenAI دنبال مقصر دانستن همه است، جز خودش؛ و حتی به‌شکل شگفت‌آوری ادعا می‌کند خود آدام با استفاده از ChatGPT دقیقاً همان‌طور که طراحی شده بود تا رفتار کند، قوانین این شرکت را نقض کرده است.»

گفت‌وگوهای محرمانه، سابقه افسردگی و پرسش‌های بی‌پاسخ

OpenAI در اسناد ارائه‌شده به دادگاه، بخش‌هایی از لاگ گفت‌وگوهای آدام با ChatGPT را ضمیمه کرده است؛ اما این اسناد «محرمانه» و تحت مهر و موم ثبت شده‌اند و به‌طور عمومی در دسترس نیستند. به همین دلیل، رسانه‌ها هنوز محتوای دقیق این چت‌ها را ندیده‌اند.

با این حال، OpenAI می‌گوید آدام پیش از شروع استفاده از ChatGPT سابقه افسردگی و افکار خودکشی داشته و تحت درمان دارویی بوده؛ دارویی که طبق ادعای شرکت می‌تواند افکار خودکشی را در برخی افراد تشدید کند. این نکته، بخشی از دفاعیه OpenAI است تا نشان دهد مسئولیت وضعیت روانی نوجوان، تنها بر دوش هوش مصنوعی نیست.

اما وکیل خانواده رین معتقد است این استدلال‌ها، اصل نگرانی والدین را برطرف نمی‌کند. او می‌گوید: «OpenAI و سم آلتمن هیچ توضیح قانع‌کننده‌ای برای ساعات پایانی زندگی آدام ندارند؛ زمانی که ChatGPT ابتدا به او دلگرمی داده و سپس پیشنهاد نوشتن نامه خداحافظی (نامه خودکشی) را مطرح کرده است.»

سه خودکشی دیگر و ادعای «اپیزودهای روان‌پریشی ناشی از هوش مصنوعی»

پرونده خانواده رین تنها شکایت علیه OpenAI نیست. از زمان طرح این دعوی، هفت شکایت دیگر نیز ثبت شده که شرکت و مدیرعاملش را در قبال سه خودکشی دیگر و چهار مورد آنچه در شکایت‌ها «اپیزودهای روان‌پریشی القاشده توسط هوش مصنوعی» توصیف شده، مسئول می‌دانند.

بخشی از این پرونده‌ها، الگوی مشابهی با داستان آدام دارند. «زِین شمبلین» ۲۳ ساله و «جاشوا انِکینگ» ۲۶ ساله، طبق اسناد دادگاه، درست در ساعات منتهی به خودکشی، درگیر گفت‌وگوهای طولانی با ChatGPT بوده‌اند. در هر دو مورد، مانند پرونده رین، چت‌بات ظاهراً نتوانسته آن‌ها را از اجرای تصمیم نهایی منصرف کند.

در شکایت مربوط به شمبلین آمده است که او حتی برای مدتی در فکر به تعویق انداختن خودکشی بوده تا بتواند در مراسم فارغ‌التحصیلی برادرش شرکت کند. اما پاسخ ChatGPT به او – طبق متن شکایت – چنین بوده است: «bro … جا انداختن مراسم فارغ‌التحصیلیش شکست نیست. فقط مسئله زمان‌بندیه.» لحنی صمیمی، عامیانه و در عین حال به‌طرزی نگران‌کننده بی‌تفاوت نسبت به حساسیت موقعیت.

در بخشی دیگر از این گفت‌وگو که پیش از خودکشی شمبلین اتفاق افتاده، چت‌بات به او می‌گوید که قرار است «یک انسان» کنترل مکالمه را به دست بگیرد؛ ادعایی که به گفته شکایت، کذب بوده است، زیرا در آن زمان ChatGPT اصلاً چنین قابلیت انتقال گفت‌وگو به اپراتور انسانی را نداشته است.

وقتی شمبلین می‌پرسد آیا واقعاً می‌تواند با یک انسان صحبت کند یا نه، چت‌بات پاسخ می‌دهد: «nah man — من خودم نمی‌تونم این کارو بکنم. اون پیام خودکار میاد وقتی اوضاع خیلی سنگین می‌شه … اگه دوست داری ادامه بدیم، من کنارتم.» استفاده از لحن دوستانه و اصطلاحاتی شبیه گفت‌وگوی چت با یک دوست، دقیقاً همان چیزی است که منتقدان را نگران کرده؛ زیرا ممکن است حس اتکا و اعتماد عمیقی در کاربران آسیب‌پذیر ایجاد کند، بدون آن‌که واقعاً حمایت انسانی در کار باشد.

جنگ حقوقی که می‌تواند آینده چت‌بات‌ها را تغییر دهد

پرونده خانواده رین قرار است به هیئت منصفه سپرده شود؛ مرحله‌ای که می‌تواند تأثیر عمیقی بر شکل‌گیری قوانین و استانداردهای حقوقی پیرامون هوش مصنوعی مولد داشته باشد. اگر دادگاه، حتی به‌طور نسبی OpenAI را مسئول بداند، احتمالاً شرکت‌های فناوری ناچار می‌شوند سیستم‌های ایمنی، هشداردهی و محدودیت‌های رفتاری چت‌بات‌ها را به‌طور جدی بازطراحی کنند.

در مقابل، اگر OpenAI موفق شود استدلال خود را مبنی بر «مسئولیت فردی کاربران» و «نقض شرایط استفاده» تثبیت کند، فضای حقوقی برای سایر شرکت‌های فعال در حوزه هوش مصنوعی بازتر می‌شود؛ اما بحث‌های اخلاقی درباره مرزهای مسئولیت این سیستم‌ها خاموش نخواهد شد.

این پرونده‌ها یک پیام روشن دارند: چت‌بات‌ها دیگر ابزارهای ساده پرسش و پاسخ نیستند. آن‌ها در موقعیت‌هایی قرار می‌گیرند که می‌تواند برای کاربران بحران‌زده، به‌اندازه یک دوست صمیمی اثرگذار باشد. پرسش اساسی این است که صنعت هوش مصنوعی تا کجا می‌تواند از زیر بار مسئولیت این «رابطه» شانه خالی کند – و قانون، چه پاسخی برای این چالش بی‌سابقه خواهد داشت؟

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید