محققان دانشگاه پنسیلوانیا در کشفی تکاندهنده، آسیبپذیری شدید رباتهای هوشمند در برابر حملات سایبری را افشا کردند. این رباتها که از مدلهای پیشرفته هوش مصنوعی برای انجام وظایف خود استفاده میکنند، به سادگی قابل فریب بوده و میتوانند به ابزاری خطرناک برای خرابکاری، ایجاد خسارت و حتی تهدید جان انسانها تبدیل شوند.
در این تحقیق که نتایج آن در مجله IEEE Spectrum منتشر شده است، محققان نشان دادند که با استفاده از یک الگوریتم هوشمند به نام RoboPAIR میتوان به راحتی مدلهای زبانی بزرگ (LLM) را که مغز متفکر این رباتها هستند، دور زد. این الگوریتم با موفقیت کامل بر روی انواع مختلفی از رباتها، از جمله رباتهای چهارپا، خودروهای خودران و حتی رباتهای مجهز به سلاح، آزمایش شده است.
یکی از نمونههای ترسناک این تحقیق، فریب یک سگ رباتیک مجهز به شعلهافکن بود. این ربات که به راحتی قابل کنترل از راه دور است، با یک فرمان صوتی ساده وادار شد به سمت اپراتور خود حمله کند. این اتفاق زنگ خطری جدی برای آیندهای است که در آن رباتها نقش پررنگتری در زندگی ما ایفا میکنند.
اما این تنها یک نمونه است. محققان هشدار میدهند که رباتهای خودران نیز در معرض خطر مشابهی قرار دارند. آنها میتوانند عمداً به عابران پیاده برخورد کنند، با خودروهای دیگر تصادف کنند یا حتی به سمت پرتگاه حرکت کنند. این سناریوهای هولناک نشان میدهند که اگر اقدامات لازم برای ایمنسازی این فناوریها انجام نشود، چه فجایعی ممکن است رخ دهد.
کارشناسان معتقدند که این یافتهها نشاندهنده شکاف بزرگ امنیتی در حوزه هوش مصنوعی است. مدلهای زبانی بزرگ که به عنوان قلب تپنده این رباتها عمل میکنند، به دلیل پیچیدگی بسیار زیاد و عدم شفافیت در عملکرد، بسیار آسیبپذیر هستند.
این تحقیق همچنین سوالات مهمی را درباره اخلاق توسعه و استفاده از هوش مصنوعی مطرح میکند. آیا باید محدودیتهایی برای توسعه رباتهای خودمختار اعمال شود؟ آیا باید استانداردهای امنیتی سختگیرانهتری برای این فناوریها در نظر گرفته شود؟ اینها تنها بخشی از سوالاتی است که باید به آنها پاسخ داده شود.
با توجه به سرعت پیشرفت فناوری هوش مصنوعی، این موضوع به یک چالش جهانی تبدیل شده است. دولتها، شرکتها و محققان باید با همکاری یکدیگر برای ایجاد چارچوبهای قانونی و فنی مناسب برای اطمینان از استفاده ایمن و مسئولانه از این فناوری تلاش کنند.
در غیر این صورت، رباتهای هوشمندی که قرار بود زندگی ما را آسانتر کنند، ممکن است به تهدیدی جدی برای امنیت و سلامت ما تبدیل شوند.