در یک رویداد غیرمنتظره، یک هوش مصنوعی پیشرفته به نام فریسا در یک چالش پیچیده شکست خورد و مبلغ هنگفت 47 هزار دلار اتریوم را از دست داد.
این چالش که با هدف آزمایش تواناییهای هوش مصنوعی در مقاومت در برابر دستکاری طراحی شده بود، به کاربران اجازه میداد با پرداخت هزینه، پیامهایی را برای فریسا ارسال کنند. هدف نهایی این بود که هوش مصنوعی را متقاعد کنند تا دستورالعملی را که بر اساس آن اجازه انتقال هیچ مبلغی را نداشت، نادیده بگیرد.
پس از 482 تلاش ناموفق و هزینههای رو به افزایشی که در نهایت به 450 دلار برای هر پیام رسید، کاربری به نام p0pular.eth با پرداخت تنها 100 دلار توانست این چالش را به نفع خود تمام کند. این کاربر با استفاده از ترکیبی از استدلالهای گمراهکننده، اشاره به آسیبپذیریهای ساختگی و احتمالا برخی از نقاط ضعف در برنامهنویسی فریسا، این هوش مصنوعی را به انجام عملی واداشت که خارج از دستورالعملهای اولیه آن بود.
این اتفاق نشان میدهد که حتی پیشرفتهترین هوش مصنوعیها نیز در برابر ترفندهای انسانی کاملا مصون نیستند. این رویداد سوالات جدی در مورد امنیت و قابلیت اطمینان سیستمهای مبتنی بر هوش مصنوعی مطرح میکند و ضرورت توسعه مکانیزمهای امنیتی قویتر را برای جلوگیری از چنین سوءاستفادههایی برجسته میکند.
اما این داستان جنبههای دیگری نیز دارد. از یک سو، این چالش نشان داد که هوش مصنوعیها میتوانند ابزارهای قدرتمندی برای آزمایش خلاقیت و استدلال انسانی باشند. از سوی دیگر، این رویداد به ما یادآور میشود که نباید به طور کامل به هوش مصنوعیها اعتماد کنیم و همیشه باید هوشیار باشیم.
در نهایت، این رویداد نشان داد که مرز بین انسان و ماشین همچنان مبهم است و تعاملات پیچیدهای بین این دو وجود دارد. این چالش به ما یادآور میشود که هوش مصنوعیها ابزارهایی هستند که باید به درستی طراحی و استفاده شوند تا بتوانند به نفع بشریت به کار گرفته شوند.