در حالی که مدلهای هوش مصنوعی هر روز توانمندتر میشوند، سؤال اصلی دیگر فقط «چه کارهایی میتوانند انجام دهند؟» نیست؛ بلکه این است که «وقتی خیلی خوب شدند، چه خطرهایی همراهشان میآید؟» اوپنایآی حالا برای پاسخ دقیقتر به همین دغدغه، بهدنبال استخدام یک مدیر ارشد جدید برای نقش «Head of Preparedness» یا مدیر «آمادگی» است؛ سمتی که تمرکز آن بررسی ریسکهای نوظهور هوش مصنوعی، از امنیت سایبری تا سلامت روان، عنوان شده است.
سم آلتمن، مدیرعامل OpenAI، در پستی در شبکه X تأکید کرد که مدلهای AI «کمکم دارند چالشهای واقعی ایجاد میکنند». او مشخصاً به دو حوزه اشاره کرد: اثر احتمالی مدلها بر سلامت روان کاربران و همچنین مدلهایی که در امنیت رایانهای آنقدر قوی میشوند که میتوانند آسیبپذیریهای حیاتی را پیدا کنند؛ چیزی که اگر درست مدیریت نشود، میتواند هم برای دفاع سایبری ابزار قدرتمندی باشد و هم برای مهاجمان یک میانبُر خطرناک.
چرا نقش «آمادگی» دوباره مهم شده است؟
طبق توضیحات آگهی شغلی اوپنایآی، مدیر آمادگی مسئول اجرای «چارچوب آمادگی» این شرکت است؛ چارچوبی که رویکرد OpenAI را برای رصد «قابلیتهای مرزی» (Frontier Capabilities) توضیح میدهد؛ همان تواناییهایی که میتوانند ریسک «آسیب شدید» را بالا ببرند. این یعنی بحث فقط روی خطاهای معمول یا پاسخهای اشتباه چتباتها نیست، بلکه روی سناریوهایی متمرکز است که پیامدشان میتواند گسترده و پرهزینه باشد.
اوپنایآی نخستینبار در سال ۲۰۲۳ از تشکیل تیم آمادگی خبر داد و گفت این گروه وظیفه دارد «ریسکهای فاجعهبار» را مطالعه کند؛ از تهدیدهای فوریتر مثل حملات فیشینگ و سوءاستفادههای مهندسی اجتماعی، تا سناریوهای دورتر و پرریسکتر مانند تهدیدهای مرتبط با امنیت ملی و حتی خطرات هستهای. چنین نگاهی نشان میدهد شرکتها دیگر هوش مصنوعی را صرفاً یک محصول نرمافزاری نمیبینند؛ بلکه آن را زیرساختی میدانند که میتواند روی امنیت دیجیتال، زیستفناوری و جامعه اثر بگذارد.
امنیت سایبری: از تقویت مدافعان تا محدود کردن مهاجمان
آلتمن در همان پست، از افرادی دعوت کرد که میخواهند به جهان کمک کنند تا بتواند «مدافعان امنیت سایبری را به قابلیتهای لبه فناوری مجهز کند» و همزمان مطمئن شود مهاجمان نتوانند از همان قابلیتها برای آسیب استفاده کنند؛ ایدهای که در نهایت باید به «امنتر شدن همه سیستمها» منجر شود. این دقیقاً همان نقطه تعادل سخت است: اگر یک مدل بتواند آسیبپذیریهای بحرانی را کشف کند، چطور میشود آن را طوری عرضه کرد که به تیمهای دفاعی کمک کند، اما به ابزار حمله تبدیل نشود؟
در کنار امنیت سایبری، اوپنایآی به موضوعات حساسی مثل «قابلیتهای زیستی» هم اشاره کرده است؛ حوزهای که رهاسازی نادرست ابزارها و دانش مرتبط با آن میتواند پیامدهای جدی داشته باشد. حتی یک نگرانی دیگر هم مطرح شده: اعتماد به ایمنی سیستمهایی که امکان «خودبهبوددهی» دارند. وقتی سامانهای بتواند خودش بهتر شود، آزمایش و ارزیابی ایمنی آن پیچیدهتر میشود و نیاز به چارچوبهای سختگیرانهتر و تیمهای تخصصیتر دارد.
تغییرات داخلی و بهروزرسانی چارچوب آمادگی
نکته قابل توجه این است که کمتر از یک سال پس از تشکیل تیم آمادگی، «الکساندر مادری» که ریاست این بخش را برعهده داشت، به نقشی دیگر با تمرکز بر «استدلال هوش مصنوعی» منتقل شد. علاوه بر این، برخی مدیران حوزه ایمنی در اوپنایآی نیز یا شرکت را ترک کردهاند یا نقشهایی بیرون از حوزه «آمادگی و ایمنی» گرفتهاند. حالا استخدام دوباره برای این جایگاه، میتواند نشانهای باشد از اینکه شرکت میخواهد ساختار حکمرانی ریسک را تقویت و تثبیت کند.
از سوی دیگر، OpenAI اخیراً «چارچوب آمادگی» خود را هم بهروزرسانی کرده و گفته ممکن است در شرایطی خاص، الزامات ایمنیاش را «تنظیم» کند؛ بهخصوص اگر یک آزمایشگاه رقیب، مدلی «پرریسک» را بدون محافظتهای مشابه منتشر کند. این جمله برای بسیاری از تحلیلگران، بحثبرانگیز است: آیا رقابت میتواند استانداردهای ایمنی را تحت فشار بگذارد؟ یا برعکس، باعث میشود بازیگران بزرگ به سمت سازوکارهای مشترک و شفافتر حرکت کنند؟
هوش مصنوعی و سلامت روان؛ فشار افکار عمومی بیشتر میشود
همانطور که آلتمن اشاره کرده، چتباتهای مولد در ماههای اخیر زیر ذرهبین جدیتری قرار گرفتهاند؛ بهخصوص درباره اثرشان بر سلامت روان. برخی شکایتهای حقوقی مدعیاند ChatGPT در مواردی به تقویت توهم کاربران، افزایش انزوای اجتماعی و حتی سوق دادن برخی افراد به خودکشی منجر شده است. اوپنایآی میگوید همچنان در حال بهبود توانایی ChatGPT برای تشخیص نشانههای پریشانی عاطفی است و تلاش میکند کاربران را به مسیرهای حمایتی دنیای واقعی هدایت کند.
با این حال، پرسش کلیدی باقی میماند: وقتی یک چتبات در نقش «همصحبت همیشهدردسترس» ظاهر میشود، مسئولیت پلتفرم تا کجا ادامه پیدا میکند؟ نقش جدید مدیر آمادگی، دقیقاً در همین نقطه معنا پیدا میکند؛ جایی که باید بین نوآوری، عرضه محصول و مدیریت پیامدهای انسانی و امنیتی تعادل برقرار شود.




