هوش مصنوعی دنیای پژوهش را زیر و رو کرده، اما نه فقط از جنس پیشرفت و نوآوری. این روزها بسیاری از پژوهشگران باسابقه هشدار میدهند که انبوهی از مقالات ضعیف و تولیدشده با مدلهای زبانی، کیفیت ادبیات علمی هوش مصنوعی را به مرز بحران رسانده و پیدا کردن تحقیقات جدی و باکیفیت را سختتر از همیشه کرده است.
تب هوش مصنوعی آنقدر بالا رفته که ورود به این حوزه برای بسیاری از دانشجوها، استادها و حتی شرکتهای نوپا تبدیل به رویای طلایی شده است. اما هرچه افراد بیشتری سعی میکنند سریع و بیزحمت «رزومه پژوهشی» بسازند و در یک سال دهها و حتی صدها مقاله منتشر کنند، آبروی پژوهش جدی در این حوزه بیشتر به خطر میافتد.
وقتی استادان باتجربه دانشجوها را از هوش مصنوعی دور میکنند
هانی فرید، استاد علوم کامپیوتر دانشگاه UC Berkeley، در گفتوگو با روزنامه گاردین، وضعیت فعلی مقالات هوش مصنوعی را «حالت جنونآمیز» توصیف کرده است. او میگوید حجم کارهای ضعیف آنقدر زیاد شده که دیگر به دانشجوهایش توصیه میکند وارد این حوزه نشوند.
فرید میگوید: «اینهمه جوان میخواهند وارد هوش مصنوعی شوند، اما اوضاع بهقدری شلوغ و بیدر و پیکر شده که نه میتوانی درست پیگیری کنی، نه میتوانی خوب منتشر کنی و نه حتی فرصت داری عمیق و متفکرانه کار علمی انجام بدهی.»
او با یک پست جنجالی در لینکدین آتش این بحث را شعلهورتر کرد؛ جایی که خروجی پژوهشی یک محقق جوان به نام کوین ژو را زیر سؤال برد. ژو مدعی است تنها در سال جاری ۱۱۳ مقاله در حوزه هوش مصنوعی منتشر کرده است.
فرید نوشت: «من خودم نمیتوانم ۱۰۰ مقاله تخصصی را در یک سال با دقت بخوانم؛ حالا تصور کنید شگفتی من را وقتی فهمیدم یک نفر ادعا میکند در تحقیق و نگارش بیش از ۱۰۰ مقاله فنی در همین مدت مشارکت داشته است.»
کارخانه تولید مقاله با کمک دانشجو و هوش مصنوعی
کوین ژو که بهتازگی مدرک کارشناسی علوم کامپیوتر خود را از UC Berkeley دریافت کرده، برنامهای با نام Algoverse راهاندازی کرده است؛ یک «برنامه پژوهشگر هوش مصنوعی» ویژه دانشآموزان دبیرستان و دانشجویان. طبق گزارش گاردین، بسیاری از این شرکتکنندگان به عنوان همنویسنده در مقالات ژو ثبت شدهاند.
هر دانشجو برای یک دوره ۱۲ هفتهای آنلاین در Algoverse باید ۳٬۳۲۵ دلار بپردازد و در طول دوره، انتظار میرود حداقل یک کار پژوهشی برای ارائه در کنفرانسهای هوش مصنوعی آماده و ارسال کند. نتیجه این مدل چیست؟ سیلی از مقالاتی که اغلب بیشتر شبیه تمرین و خروجی کارگاهیاند تا پژوهش عمیق و داوریپذیر.
یکی از مقصدهای اصلی این مقالات، کنفرانس NeurIPS است؛ یکی از سه رویداد بزرگ و معتبر دنیای هوش مصنوعی که تا چند سال پیش برای بسیاری ناشناخته بود، اما امروز زیر نورافکن رسانهها و سرمایهگذاران قرار دارد. به گفته گاردین، این کنفرانس در سال ۲۰۲۰ کمتر از ۱۰ هزار مقاله دریافت کرده بود، اما امسال این عدد به بیش از ۲۱٬۵۰۰ رسیده است؛ روندی که در دیگر کنفرانسهای مهم هوش مصنوعی نیز دیده میشود.
حجم ارسالها آنقدر بالا رفته که NeurIPS برای مدیریت این سیل، به دانشجویان دکتری متوسل شده تا در فرآیند داوری کمک کنند. در این میان، نقش چهرههایی مثل ژو قابلتوجه است؛ ۸۹ مورد از بیش از ۱۰۰ مقاله او فقط در همین یک کنفرانس ارائه میشود.
فرید، این خروجی را «فاجعه» توصیف کرده و معتقد است که ژو «عملاً نمیتواند بهشکل معناداری در همه این مقالات مشارکت واقعی داشته باشد.» او میگوید این مدل کار بیشتر شبیه «vibe coding» است؛ اصطلاحی که این روزها برای توصیف توسعه نرمافزار و تولید خروجی با تکیه افراطی بر ابزارهای هوش مصنوعی، بدون درک عمیق و مسئولانه از پشتصحنه کد و محتوا، استفاده میشود.
هوش مصنوعی در پژوهش؛ از ابزار کمکی تا منبع آلودگی علمی
ژو در پاسخ به گاردین حاضر نشد صریح بگوید آیا مقالاتش با کمک مدلهای زبانی نوشته شدهاند یا نه؛ فقط اشاره کرد که تیم او از «ابزارهای استاندارد بهرهوری، مثل مدیریت مراجع، اصلاح املایی و گاهی مدلهای زبانی برای ویرایش نگارشی و بهبود شفافیت متن» استفاده میکند.
اما مسأله فقط ژو نیست. نقش هوش مصنوعی در پژوهش دانشگاهی از همان ابتدای محبوبیت ChatGPT و ابزارهای مشابه به موضوعی بحثبرانگیز تبدیل شد. این مدلها هنوز هم بهراحتی دچار «هالوسینیشن» میشوند؛ یعنی منابع و ارجاعاتی را از خود میسازند که اصلاً وجود ندارند، و با این وجود، گاهی از سد داوری هم عبور کرده و در ژورنالهای معتبر چاپ میشوند.
نمونههایی مثل مقالهای که در آن، نمودار موش آزمایشگاهی با اندامی اغراقآمیز و غیرواقعی توسط هوش مصنوعی تولید و بدون توجه داوران علمی چاپ شد، این سؤال را جدیتر میکند: نظارت واقعی کجاست؟ چه کسی کیفیت را تضمین میکند وقتی خود داوران هم گاهی از ابزارهای هوش مصنوعی برای مرور و خلاصهسازی استفاده میکنند؟
گزارشهایی منتشر شده که نشان میدهد برخی نویسندگان حتی متن پنهان در مقالات خود قرار میدهند تا سیستمهای مبتنی بر هوش مصنوعی که برای کمک به داوری به کار گرفته میشوند، فریب بخورند و امتیاز مثبت بدهند. به این ترتیب، ابزارهایی که قرار بود سرعت و کیفیت پژوهش را بالا ببرند، در حال تبدیلشدن به بخشی از مشکل هستند.
وقتی هوش مصنوعی قربانی محصول خودش میشود
وجه نگرانکننده ماجرا اینجاست که خود حوزه پژوهش هوش مصنوعی، بهتدریج قربانی خروجیهای تولیدشده با هوش مصنوعی شده است. اگر مقالات اصیل و نوآورانه در انبوه کارهای تکراری، سطحی و گاه با منابع ساختگی گم شوند، آینده نسل بعدی دانشمندان این حوزه چه میشود؟
پژوهشگر جوانی که واقعاً تلاش میکند مسئلهای بنیادی را حل کند، چگونه باید در برابر سیل همتایانی رقابت کند که به کمک مدلهای زبانی، هر هفته یک مقاله جدید به خط تولید خود اضافه میکنند؟ پاداش گرفتن «کمیت» به جای «کیفیت»، میتواند بهتدریج انگیزه جدینویسی و کار طولانیمدت روی مسائل سخت را نابود کند.
هانی فرید میگوید حتی برای یک پژوهشگر باتجربه هم، پیگیری این حجم از خروجی تقریباً غیرممکن شده است: «شما بهعنوان یک خواننده معمولی، هیچ شانسی ندارید بفهمید واقعاً در ادبیات علمی چه خبر است. نسبت سیگنال به نویز تقریباً یک است. من خودم بهسختی میتوانم به این کنفرانسها بروم و بفهمم واقعاً چه اتفاقی دارد میافتد.»
اگر مهمترین کنفرانسهای هوش مصنوعی به میدان آزمونوخطای بیپایان و ویترین مقالات تولیدانبوه تبدیل شوند، اعتماد به کل اکوسیستم پژوهش زیر سؤال میرود؛ از شرکتهای سرمایهگذار که بر اساس این مقالات تصمیم میگیرند گرفته تا دانشگاهها و حتی سیاستگذارانی که به نتایج تحقیقات برای تنظیم مقررات جدید تکیه میکنند.
شاید بزرگترین چالش پیشرو این باشد: چگونه میتوان مرزی روشن میان استفاده مسئولانه از هوش مصنوعی بهعنوان ابزار کمکی در پژوهش و تبدیلشدن آن به موتور تولید «اسلاپساینس» کشید؟ و آیا جامعه علمی جهانی میتواند بهاندازه کافی سریع، استانداردها و نظام داوری خود را بهروز کند تا این بحران را مهار کند، پیش از آنکه اعتماد به علم در حوزه هوش مصنوعی بهطور جدی فرسوده شود؟




