آیا تهدید کردن، کلید باز کردن پتانسیل پنهان هوش مصنوعی است؟

در دنیای رو به رشد هوش مصنوعی مولد، همواره روش‌های نوآورانه‌ای برای ارتقای عملکرد و دستیابی به خروجی‌های دقیق‌تر مطرح می‌شود. اما تازه‌ترین اظهارنظر یکی از چهره‌های برجسته این حوزه، «سرگی برین»، هم‌بنیان‌گذار غول فناوری گوگل، جامعه هوش مصنوعی را در بهت فرو برده است. او در مصاحبه‌ای جنجالی، راهکاری عجیب و باورنکردنی را برای بهبود کارایی مدل‌های هوش مصنوعی پیشنهاد کرده است: تهدید آن‌ها!

برین در گفتگویی صریح با پادکست All-In، ادعایی تکان‌دهنده مطرح کرد: “نه فقط مدل‌های هوش مصنوعی ما، بلکه تمامی مدل‌ها، اگر آن‌ها را تهدید کنید، عملکرد بهتری از خود نشان می‌دهند.” او حتی پا را فراتر گذاشته و به شوخی از “خشونت فیزیکی” به عنوان نوعی تهدید یاد کرده است. دلیل این توصیه عجیب از نظر برین، عدم تمایل عمومی مردم به این نوع رویکرد است که مانع از مطرح شدن آن به صورت گسترده شده بود. به نظر می‌رسد الگوریتم‌های هوش مصنوعی در طول فرآیند آموزش خود، مفهوم “تهدید” را به عنوان سیگنالی برای جدیت بیشتر و اهمیت کار درک کرده‌اند و به همین دلیل، در مواجهه با آن، خروجی‌های با کیفیت‌تری ارائه می‌دهند.

این ادعا در حالی مطرح می‌شود که در همان پادکست، یکی از مهمانان به شوخی عنوان کرد که بی‌ادبی با هوش مصنوعی می‌تواند به نتایج بهتری منجر شود؛ و برین با تأیید حرف او، این نظریه را تقویت کرد که تهدید، راهی برای بهبود خروجی‌ها است. با این حال، همچنان این سوال اساسی مطرح است که آیا تهدید واقعی می‌تواند باعث ارتقای عملکرد چت‌بات‌ها شود یا خیر؟

از سوی دیگر، باید به خطرات احتمالی این رویکرد نیز توجه داشت. شرکت آنتروپیک، که به تازگی مدل‌های پیشرفته هوش مصنوعی Claude 4 خود را معرفی کرده، قابلیت‌های جدیدی را در نسخه‌های خود گنجانده است. یکی از کارمندان این شرکت در پلتفرم بلواسکای فاش کرد که مدل جدید و بسیار توانمند Opus، که بهترین عملکرد را در میان مدل‌های آنتروپیک دارد، می‌تواند با نهادهای نظارتی تماس گرفته و حساب کاربری شما را مسدود کند تا از انجام “کارهای غیراخلاقی” جلوگیری به عمل آورد.

با وجود اینکه قابلیت جدید شرکت آنتروپیک در حال حاضر در مرحله آزمایشی قرار دارد، اما احتمال عملی شدن آن در آینده نزدیک دور از انتظار نیست. این به آن معناست که در آینده، ممکن است هوش مصنوعی، تهدیدهای شما را به مقامات مربوطه گزارش دهد! با این تفاسیر، کارشناسان حوزه هوش مصنوعی همچنان تأکید می‌کنند که بهترین و امن‌ترین راه برای دستیابی به خروجی‌های مطلوب از هوش مصنوعی، استفاده از پرامپت‌نویسی اصولی و دقیق است. اگرچه روش‌های متعددی برای دور زدن برخی محدودیت‌های هوش مصنوعی از طریق پرامپت وجود دارد، اما باید توجه داشت که شکستن چارچوب‌های امنیتی مدل‌های پیشرفته هوش مصنوعی به راحتی امکان‌پذیر نخواهد بود.

آیا این رویکرد جدید و جسورانه سرگی برین، می‌تواند مرزهای تعامل ما با هوش مصنوعی را بازتعریف کند، یا صرفاً یک بحث نظری باقی خواهد ماند؟

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید