توسعه هوش مصنوعی را متوقف کنید! فریاد ایلان ماسک و بزرگان فناوری از ترس توسعه AI

بیش از 1000 کارشناس حوزه هوش مصنوعی در سراسر جهان از جمله ایلان ماسک با امضای نامه سرگشاده‌ای خواهان توقف روند تحقیق و توسعه سیستم‌ها و برنامه‌های هوش مصنوعی قدرتمندتر و پیشرفته‌تر از GPT 4 شدند. این نامه خواستار یک وقفه 6 ماهه در کلیه امور مرتبط با هوش مصنوعی پیشرفته شده است؛ چرا که کارشناسان احساس می‌کنند که این پیشرفت می‌تواند به منزله یک تهدید بالقوه برای جامعه بشری قلمداد شود.

نامه سرگشاده تحت عنوان “وقفه آزمایشات کلان هوش مصنوعی” توسط موسسه غیرانتفاعی Future Of Life منتشر شده است. این موسسه در زمینه کاهش خطرات فاجعه‌بار پیش روی جامعه بشری و مشخصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته فعالیت می‌کند.

این نامه توسط شخصیت‌های برجسته، دانشمندان، اساتید هوش مصنوعی و کارشناسانی مانند Yoshua Bengio؛ برنده جایزه تورینگ، استوارت راسل؛ پروفسور علوم کامپیوتر در دانشگاه برکلی، استیو وزنیاک؛ یکی از بنیان‌گذاران اپل، Yuval Noah Harari؛ نویسنده کتاب Homo Sapiens و عماد موستاک؛ مدیرعامل موسسه Stability AI امضاء شده است.

در این نامه اعلام شده که سیستم‌های هوش مصنوعی با وجود هوش رقابتی انسان، خطرات عمیقی را برای جامعه و بشریت ایجاد می‌کنند و این موضوع از سوی آزمایشگاه‌های برتر هوش مصنوعی مورد تائید قرار گرفته است. در ادامه خاطرنشان شده که پیشرفت‌های اخیر هوش مصنوعی به میدان رقابت برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتری تبدیل شده که کنترل آنها احتمالا کار دشواری خواهد بود. چنین سیستم‌های قدرتمندی صرفا بایستی زمانی توسعه پیدا کنند که بتوان اثرات و مخاطرات مثبت آنها را با اطمینان مدیریت کرد.

نهایتا این طومار خواهان توقف 6 ماهه آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT 4 شده است. این سازمان از کلیه آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل درخواست کرده تا پروتکل‌های امنیتی مشترکی را ایجاد نموده و از ایمنی سیستم‌ها در سطحی فراتر از شک منطقی اطمینان حاصل کنند.

همچنین در این نامه خاطرنشان شده که به منظور تسریع روند توسعه سیاست‌های مدیریتی قدرتمند هوش مصنوعی، توسعه‌دهندگان بایستی با سیاست‌گذاران همکاری نمایند.

گری مارکوس؛ استاد دانشگاه نیویورک و یکی از امضاکنندگان نامه اعلام کرده که این طومار اگرچه کامل نیست؛ اما دارای ماهیتی صحیح بوده و تا زمان درک پیامدهای هوش مصنوعی بهتر است سرعت توسعه آن‌را کاهش دهیم. همچنین به گفته وی، بازیگران بزرگ در رابطه با فعالیت‌های خود به شکل فزآینده‌ای پنهان‌کاری می‌کنند و این موضوع می‌تواند موجب آسیب‌پذیری جامعه و مخاطرات جدی هوش مصنوعی برای انسان شود.

بسیاری از موسسات و دولت‌ها در سراسر جهان نگرانی خود را پیرامون مسائل اخلاقی و قانونی ایجاد شده توسط هوش مصنوعی پیشرفته نظیر ChatGPT ابراز نموده‌اند. اخیرا یوروپل در خصوص بهره‌برداری احتمالی از سیستم‌های هوش مصنوعی نظیر ChatGPT برای اجرای جرایم سایبری، حملات فیشینگ و انتشار اطلاعات نادرست هشدار داده است. اکنون بسیاری از دولت‌ها روی تنظیم سیاست‌های قانونی و چارچوب‌های نظارتی برای کنترل هوش مصنوعی کار می‌کنند.

بسیاری از موسسات آموزشی و دانشگاه‌ها نیز نگرانی خود در رابطه با ChatGPT و برنامه‌های مشابه هوش مصنوعی را ابراز نموده‌اند. به‌عنوان مثال چندین کالج در شهر نیویورک تصمیم گرفته‌اند تا مانع از به‌کارگیری ChatGPT توسط دانش‌آموزان جهت انجام تکالیف شوند. در این راستا دانشگاه‌ها دسترسی به وبسایت ChatGPT از طریق سرورهای خود را مسدود کرده‌اند.

دپارتمان آموزش نیز به‌دلیل نگرانی‌های موجود در خصوص پیامدهای منفی احتمالی استفاده از ChatGPT برای فرآیند یادگیری دانش‌آموزان و صحت و ایمنی محتوا از محدود کردن دسترسی به این ابزار اعلام حمایت نموده است.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید
TCH