در دنیای رو به رشد هوش مصنوعی مولد، همواره روشهای نوآورانهای برای ارتقای عملکرد و دستیابی به خروجیهای دقیقتر مطرح میشود. اما تازهترین اظهارنظر یکی از چهرههای برجسته این حوزه، «سرگی برین»، همبنیانگذار غول فناوری گوگل، جامعه هوش مصنوعی را در بهت فرو برده است. او در مصاحبهای جنجالی، راهکاری عجیب و باورنکردنی را برای بهبود کارایی مدلهای هوش مصنوعی پیشنهاد کرده است: تهدید آنها!
برین در گفتگویی صریح با پادکست All-In، ادعایی تکاندهنده مطرح کرد: “نه فقط مدلهای هوش مصنوعی ما، بلکه تمامی مدلها، اگر آنها را تهدید کنید، عملکرد بهتری از خود نشان میدهند.” او حتی پا را فراتر گذاشته و به شوخی از “خشونت فیزیکی” به عنوان نوعی تهدید یاد کرده است. دلیل این توصیه عجیب از نظر برین، عدم تمایل عمومی مردم به این نوع رویکرد است که مانع از مطرح شدن آن به صورت گسترده شده بود. به نظر میرسد الگوریتمهای هوش مصنوعی در طول فرآیند آموزش خود، مفهوم “تهدید” را به عنوان سیگنالی برای جدیت بیشتر و اهمیت کار درک کردهاند و به همین دلیل، در مواجهه با آن، خروجیهای با کیفیتتری ارائه میدهند.
این ادعا در حالی مطرح میشود که در همان پادکست، یکی از مهمانان به شوخی عنوان کرد که بیادبی با هوش مصنوعی میتواند به نتایج بهتری منجر شود؛ و برین با تأیید حرف او، این نظریه را تقویت کرد که تهدید، راهی برای بهبود خروجیها است. با این حال، همچنان این سوال اساسی مطرح است که آیا تهدید واقعی میتواند باعث ارتقای عملکرد چتباتها شود یا خیر؟
از سوی دیگر، باید به خطرات احتمالی این رویکرد نیز توجه داشت. شرکت آنتروپیک، که به تازگی مدلهای پیشرفته هوش مصنوعی Claude 4 خود را معرفی کرده، قابلیتهای جدیدی را در نسخههای خود گنجانده است. یکی از کارمندان این شرکت در پلتفرم بلواسکای فاش کرد که مدل جدید و بسیار توانمند Opus، که بهترین عملکرد را در میان مدلهای آنتروپیک دارد، میتواند با نهادهای نظارتی تماس گرفته و حساب کاربری شما را مسدود کند تا از انجام “کارهای غیراخلاقی” جلوگیری به عمل آورد.
با وجود اینکه قابلیت جدید شرکت آنتروپیک در حال حاضر در مرحله آزمایشی قرار دارد، اما احتمال عملی شدن آن در آینده نزدیک دور از انتظار نیست. این به آن معناست که در آینده، ممکن است هوش مصنوعی، تهدیدهای شما را به مقامات مربوطه گزارش دهد! با این تفاسیر، کارشناسان حوزه هوش مصنوعی همچنان تأکید میکنند که بهترین و امنترین راه برای دستیابی به خروجیهای مطلوب از هوش مصنوعی، استفاده از پرامپتنویسی اصولی و دقیق است. اگرچه روشهای متعددی برای دور زدن برخی محدودیتهای هوش مصنوعی از طریق پرامپت وجود دارد، اما باید توجه داشت که شکستن چارچوبهای امنیتی مدلهای پیشرفته هوش مصنوعی به راحتی امکانپذیر نخواهد بود.
آیا این رویکرد جدید و جسورانه سرگی برین، میتواند مرزهای تعامل ما با هوش مصنوعی را بازتعریف کند، یا صرفاً یک بحث نظری باقی خواهد ماند؟




