اوپن‌ای‌آی به‌دنبال مدیر جدید «آمادگی» برای ریسک‌های AI

در حالی که مدل‌های هوش مصنوعی هر روز توانمندتر می‌شوند، سؤال اصلی دیگر فقط «چه کارهایی می‌توانند انجام دهند؟» نیست؛ بلکه این است که «وقتی خیلی خوب شدند، چه خطرهایی همراهشان می‌آید؟» اوپن‌ای‌آی حالا برای پاسخ دقیق‌تر به همین دغدغه، به‌دنبال استخدام یک مدیر ارشد جدید برای نقش «Head of Preparedness» یا مدیر «آمادگی» است؛ سمتی که تمرکز آن بررسی ریسک‌های نوظهور هوش مصنوعی، از امنیت سایبری تا سلامت روان، عنوان شده است.

سم آلتمن، مدیرعامل OpenAI، در پستی در شبکه X تأکید کرد که مدل‌های AI «کم‌کم دارند چالش‌های واقعی ایجاد می‌کنند». او مشخصاً به دو حوزه اشاره کرد: اثر احتمالی مدل‌ها بر سلامت روان کاربران و همچنین مدل‌هایی که در امنیت رایانه‌ای آن‌قدر قوی می‌شوند که می‌توانند آسیب‌پذیری‌های حیاتی را پیدا کنند؛ چیزی که اگر درست مدیریت نشود، می‌تواند هم برای دفاع سایبری ابزار قدرتمندی باشد و هم برای مهاجمان یک میان‌بُر خطرناک.

چرا نقش «آمادگی» دوباره مهم شده است؟

طبق توضیحات آگهی شغلی اوپن‌ای‌آی، مدیر آمادگی مسئول اجرای «چارچوب آمادگی» این شرکت است؛ چارچوبی که رویکرد OpenAI را برای رصد «قابلیت‌های مرزی» (Frontier Capabilities) توضیح می‌دهد؛ همان توانایی‌هایی که می‌توانند ریسک «آسیب شدید» را بالا ببرند. این یعنی بحث فقط روی خطاهای معمول یا پاسخ‌های اشتباه چت‌بات‌ها نیست، بلکه روی سناریوهایی متمرکز است که پیامدشان می‌تواند گسترده و پرهزینه باشد.

اوپن‌ای‌آی نخستین‌بار در سال ۲۰۲۳ از تشکیل تیم آمادگی خبر داد و گفت این گروه وظیفه دارد «ریسک‌های فاجعه‌بار» را مطالعه کند؛ از تهدیدهای فوری‌تر مثل حملات فیشینگ و سوءاستفاده‌های مهندسی اجتماعی، تا سناریوهای دورتر و پرریسک‌تر مانند تهدیدهای مرتبط با امنیت ملی و حتی خطرات هسته‌ای. چنین نگاهی نشان می‌دهد شرکت‌ها دیگر هوش مصنوعی را صرفاً یک محصول نرم‌افزاری نمی‌بینند؛ بلکه آن را زیرساختی می‌دانند که می‌تواند روی امنیت دیجیتال، زیست‌فناوری و جامعه اثر بگذارد.

امنیت سایبری: از تقویت مدافعان تا محدود کردن مهاجمان

آلتمن در همان پست، از افرادی دعوت کرد که می‌خواهند به جهان کمک کنند تا بتواند «مدافعان امنیت سایبری را به قابلیت‌های لبه فناوری مجهز کند» و هم‌زمان مطمئن شود مهاجمان نتوانند از همان قابلیت‌ها برای آسیب استفاده کنند؛ ایده‌ای که در نهایت باید به «امن‌تر شدن همه سیستم‌ها» منجر شود. این دقیقاً همان نقطه تعادل سخت است: اگر یک مدل بتواند آسیب‌پذیری‌های بحرانی را کشف کند، چطور می‌شود آن را طوری عرضه کرد که به تیم‌های دفاعی کمک کند، اما به ابزار حمله تبدیل نشود؟

در کنار امنیت سایبری، اوپن‌ای‌آی به موضوعات حساسی مثل «قابلیت‌های زیستی» هم اشاره کرده است؛ حوزه‌ای که رهاسازی نادرست ابزارها و دانش مرتبط با آن می‌تواند پیامدهای جدی داشته باشد. حتی یک نگرانی دیگر هم مطرح شده: اعتماد به ایمنی سیستم‌هایی که امکان «خودبهبوددهی» دارند. وقتی سامانه‌ای بتواند خودش بهتر شود، آزمایش و ارزیابی ایمنی آن پیچیده‌تر می‌شود و نیاز به چارچوب‌های سخت‌گیرانه‌تر و تیم‌های تخصصی‌تر دارد.

تغییرات داخلی و به‌روزرسانی چارچوب آمادگی

نکته قابل توجه این است که کمتر از یک سال پس از تشکیل تیم آمادگی، «الکساندر مادری» که ریاست این بخش را برعهده داشت، به نقشی دیگر با تمرکز بر «استدلال هوش مصنوعی» منتقل شد. علاوه بر این، برخی مدیران حوزه ایمنی در اوپن‌ای‌آی نیز یا شرکت را ترک کرده‌اند یا نقش‌هایی بیرون از حوزه «آمادگی و ایمنی» گرفته‌اند. حالا استخدام دوباره برای این جایگاه، می‌تواند نشانه‌ای باشد از اینکه شرکت می‌خواهد ساختار حکمرانی ریسک را تقویت و تثبیت کند.

از سوی دیگر، OpenAI اخیراً «چارچوب آمادگی» خود را هم به‌روزرسانی کرده و گفته ممکن است در شرایطی خاص، الزامات ایمنی‌اش را «تنظیم» کند؛ به‌خصوص اگر یک آزمایشگاه رقیب، مدلی «پرریسک» را بدون محافظت‌های مشابه منتشر کند. این جمله برای بسیاری از تحلیلگران، بحث‌برانگیز است: آیا رقابت می‌تواند استانداردهای ایمنی را تحت فشار بگذارد؟ یا برعکس، باعث می‌شود بازیگران بزرگ به سمت سازوکارهای مشترک و شفاف‌تر حرکت کنند؟

هوش مصنوعی و سلامت روان؛ فشار افکار عمومی بیشتر می‌شود

همان‌طور که آلتمن اشاره کرده، چت‌بات‌های مولد در ماه‌های اخیر زیر ذره‌بین جدی‌تری قرار گرفته‌اند؛ به‌خصوص درباره اثرشان بر سلامت روان. برخی شکایت‌های حقوقی مدعی‌اند ChatGPT در مواردی به تقویت توهم کاربران، افزایش انزوای اجتماعی و حتی سوق دادن برخی افراد به خودکشی منجر شده است. اوپن‌ای‌آی می‌گوید همچنان در حال بهبود توانایی ChatGPT برای تشخیص نشانه‌های پریشانی عاطفی است و تلاش می‌کند کاربران را به مسیرهای حمایتی دنیای واقعی هدایت کند.

با این حال، پرسش کلیدی باقی می‌ماند: وقتی یک چت‌بات در نقش «هم‌صحبت همیشه‌در‌دسترس» ظاهر می‌شود، مسئولیت پلتفرم تا کجا ادامه پیدا می‌کند؟ نقش جدید مدیر آمادگی، دقیقاً در همین نقطه معنا پیدا می‌کند؛ جایی که باید بین نوآوری، عرضه محصول و مدیریت پیامدهای انسانی و امنیتی تعادل برقرار شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید