خنگی مصنوعی چیست و آیا می‌تواند ربات‌ها را شبیه انسان کند؟!

امروزه هوش عمومی مصنوعی (AGI) خیلی‌ها را نگران کرده است؛ ایده‌ای که در آن ماشین‌ها می‌توانند زنده شوند یا دارای ادارک شوند. در وضعیتی، یک AGI حتی می‌تواند مانند انسان صاحب توانایی‌ در هر زمینه‌ای گردد. اما فعلا جای نگرانی نیست، چرا که در حال حاضر این تکنولوژی به اندازه یک سنگ زنده نیست و بیش از یک ماشین‌حساب، قدرت محاسبه ندارد. اما این موضوع، فناوری مذکور را از انجام کارهای فراانسانی باز نمی‌دارد.

البته نگرانی و ترس اصلی این است که ماشین‌ها باهوش‌تر شده و در برابر انسان قد علم کنند. به سبک داستان‌های علمی-تخیلی، آن‌ها ممکن است در بهترین حالت تصمیم بگیرند که از انسان محافظت نمایند یا سیاره زمین را نجات دهند، اما در بدترین وضعیت این امکان وجود دارد که آن‌ها قصد جان ما کنند.

البته مورد دوم خوشایند هیچ‌کس نیست و مسلما بحث‌های زیادی درباره آن می‌تواند وجود داشته باشد، اما اجازه دهید تصور کنیم که AGI یا ابرهوش امکان پذیر باشد، در این صورت، بر عهده ماست که فکری برای ظهور احتمالی آن بکنیم؛ اینکه برای متوقف کردن آن، چه کاری می‌توان انجام داد.

Michaël Trazzi و Roman V. Yampolskiy محققینی از دانشگاه‌های سوربن و لوییویل اعتقاد دارند که پاسخ این پرسش در خنگی مصنوعی (Artificial Stupidity) قرار دارد. بله، خنگی مصنوعی! شاید فکر کنید این موضوع، شوخی است اما به‌هیچ‌وجه این‌گونه نیست. اغلب رسانه‌ها دوست دارند تا درباره کشفیات هیجان‌انگیز صحبت کنند، اما مطالعه مذکور توسط پژوهشگرانی جدی پذیرفته است. در بخشی از این تحقیق بیان شده:

به نظر ما، زمانی‌که (تعمدا) محدودیتی‌هایی بر هوش مصنوعی اعمال می‌شود تا با توانایی‌های انسان در انجام کاری مطابقت داشته باشد، در واقع آن را به‌طور مصنوعی خنگ کرده‌ایم. می‌توان با محدود کردن قدر محاسبه و حافظه AGI و یا با استفاده از خنگی مصنوعی در برخی زمینه‌های خاص، آن را بی‌خطرتر نمود. ما محدوده‌های هوش بشری را ارزیابی کرده و توصیه‌هایی را در جهت اینکه به‌کارگیری کدامیک از این موارد باعث ساخت یک AGI امن و بی‌خطر خواهد شد، ارایه می‌کنیم.

واقعیت این است که ماشین‌ها در بسیاری از کارها عملکرد بهتری از انسان دارند. بنابراین اگر به AGI معتقد باشید، می‌توانید تصور کنید که توانایی‌ها و قابلیت‌های ابرانسانی کنونی آن‌ها، ممکن است منجر به نوعی ابرهوشی واقعی گردد. به گفته پژوهشگران مطالعه حاضر:

انسان‌ها محدودیت‌های محاسباتی مشخص (از نظر حافظه، سرعت پردازش و محاسبه) و سوگیری‌های شناختی (الگویی که در قضاوت و استدلال انحراف ایجاد کرده و باعث نتیجه‌گیری‌های غیرمنطقی می‌شود) پیشرفته‌ای دارند. اما یک AGI چنین محدویت‌های محاسباتی و شناختی پیشینی ندارد.

به عقیده این محققین، یک راه برای جلوگیری از طغیان AGI، ایجاد موانع سخت‌افزاری است. اما نباید فراموش کرد که یک کامپیوتر ابرهوشمند می‌تواند نیروی آنلاین بیشتری را از طریق محاسبات ابری سفارش دهد، یا حتی افرادی را برای انجام آن به خدمت بگیرد.

به گفته آن‌ها، مرحله بعدی باید کدگذاری یک قانون خاص در این نوع کامپیوترها باشد تا آن‌ها نتوانند خود را ارتقا دهند. اما اگر توانستند این کدها را تغییر بدهند چه؟ البته راه‌حلی برای این مشکل وجود دارد. به‌غیر از محدودیت‌های سخت‌افزاری، موضوع مهمی که ما انسان‌ها را واقعی می‌کند تمایلات و سوگیری‌های ماست.

وارد کردن سوگیری‌های انسانی در AGI چندین مزیت دارد: این جهت‌گیری‌ها می‌توانند هوش AGI را محدود کرده و با جلوگیری از رفتارهایی که ممکن است به انسان آسیب برسانند، آن را کاملا بی‌خطر سازند.

مطالعه مذکور، 14 سوگیری خاص را لیست کرده که یک شبکه مصنوعی رمزنگاری‌شده به‌وسیله آن‌ها، اساسا خنگ‌تر از آن خواهد بود که بتواند بر هوش بشری برتری یابد. در این فرصت به آن‌ها نمی‌پردازیم اما اگر می‌خواهید کل مقاله را بر روی وب‌سایت arXive بخوانید به اینجا مراجعه نمایید.

بنابراین نتیجه‌ای که تیم تحقیقاتی گرفته این است که خنگی مصنوعی نه‌تنها ما را از خطر AGI ابرهوشمند محافظت خواهد کرد، بلکه می‌تواند هوش مصنوعی را هم بیشتر شبیه انسان کند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید
TCH