کارشناسان می‌گویند مقالات «تحقیقاتی» هوش مصنوعی کاملا بی‌ارزش هستند!

هوش مصنوعی دنیای پژوهش را زیر و رو کرده، اما نه فقط از جنس پیشرفت و نوآوری. این روزها بسیاری از پژوهشگران باسابقه هشدار می‌دهند که انبوهی از مقالات ضعیف و تولیدشده با مدل‌های زبانی، کیفیت ادبیات علمی هوش مصنوعی را به مرز بحران رسانده و پیدا کردن تحقیقات جدی و باکیفیت را سخت‌تر از همیشه کرده است.

تب هوش مصنوعی آن‌قدر بالا رفته که ورود به این حوزه برای بسیاری از دانشجوها، استادها و حتی شرکت‌های نوپا تبدیل به رویای طلایی شده است. اما هرچه افراد بیشتری سعی می‌کنند سریع و بی‌زحمت «رزومه پژوهشی» بسازند و در یک سال ده‌ها و حتی صدها مقاله منتشر کنند، آبروی پژوهش جدی در این حوزه بیشتر به خطر می‌افتد.

وقتی استادان باتجربه دانشجوها را از هوش مصنوعی دور می‌کنند

هانی فرید، استاد علوم کامپیوتر دانشگاه UC Berkeley، در گفت‌وگو با روزنامه گاردین، وضعیت فعلی مقالات هوش مصنوعی را «حالت جنون‌آمیز» توصیف کرده است. او می‌گوید حجم کارهای ضعیف آن‌قدر زیاد شده که دیگر به دانشجوهایش توصیه می‌کند وارد این حوزه نشوند.

فرید می‌گوید: «این‌همه جوان می‌خواهند وارد هوش مصنوعی شوند، اما اوضاع به‌قدری شلوغ و بی‌در و پیکر شده که نه می‌توانی درست پیگیری کنی، نه می‌توانی خوب منتشر کنی و نه حتی فرصت داری عمیق و متفکرانه کار علمی انجام بدهی.»

او با یک پست جنجالی در لینکدین آتش این بحث را شعله‌ورتر کرد؛ جایی که خروجی پژوهشی یک محقق جوان به نام کوین ژو را زیر سؤال برد. ژو مدعی است تنها در سال جاری ۱۱۳ مقاله در حوزه هوش مصنوعی منتشر کرده است.

فرید نوشت: «من خودم نمی‌توانم ۱۰۰ مقاله تخصصی را در یک سال با دقت بخوانم؛ حالا تصور کنید شگفتی من را وقتی فهمیدم یک نفر ادعا می‌کند در تحقیق و نگارش بیش از ۱۰۰ مقاله فنی در همین مدت مشارکت داشته است.»

کارخانه تولید مقاله با کمک دانشجو و هوش مصنوعی

کوین ژو که به‌تازگی مدرک کارشناسی علوم کامپیوتر خود را از UC Berkeley دریافت کرده، برنامه‌ای با نام Algoverse راه‌اندازی کرده است؛ یک «برنامه پژوهشگر هوش مصنوعی» ویژه دانش‌آموزان دبیرستان و دانشجویان. طبق گزارش گاردین، بسیاری از این شرکت‌کنندگان به عنوان هم‌نویسنده در مقالات ژو ثبت شده‌اند.

هر دانشجو برای یک دوره ۱۲ هفته‌ای آنلاین در Algoverse باید ۳٬۳۲۵ دلار بپردازد و در طول دوره، انتظار می‌رود حداقل یک کار پژوهشی برای ارائه در کنفرانس‌های هوش مصنوعی آماده و ارسال کند. نتیجه این مدل چیست؟ سیلی از مقالاتی که اغلب بیشتر شبیه تمرین و خروجی کارگاهی‌اند تا پژوهش عمیق و داوری‌پذیر.

یکی از مقصدهای اصلی این مقالات، کنفرانس NeurIPS است؛ یکی از سه رویداد بزرگ و معتبر دنیای هوش مصنوعی که تا چند سال پیش برای بسیاری ناشناخته بود، اما امروز زیر نورافکن رسانه‌ها و سرمایه‌گذاران قرار دارد. به گفته گاردین، این کنفرانس در سال ۲۰۲۰ کمتر از ۱۰ هزار مقاله دریافت کرده بود، اما امسال این عدد به بیش از ۲۱٬۵۰۰ رسیده است؛ روندی که در دیگر کنفرانس‌های مهم هوش مصنوعی نیز دیده می‌شود.

حجم ارسال‌ها آن‌قدر بالا رفته که NeurIPS برای مدیریت این سیل، به دانشجویان دکتری متوسل شده تا در فرآیند داوری کمک کنند. در این میان، نقش چهره‌هایی مثل ژو قابل‌توجه است؛ ۸۹ مورد از بیش از ۱۰۰ مقاله او فقط در همین یک کنفرانس ارائه می‌شود.

فرید، این خروجی را «فاجعه» توصیف کرده و معتقد است که ژو «عملاً نمی‌تواند به‌شکل معناداری در همه این مقالات مشارکت واقعی داشته باشد.» او می‌گوید این مدل کار بیشتر شبیه «vibe coding» است؛ اصطلاحی که این روزها برای توصیف توسعه نرم‌افزار و تولید خروجی با تکیه افراطی بر ابزارهای هوش مصنوعی، بدون درک عمیق و مسئولانه از پشت‌صحنه کد و محتوا، استفاده می‌شود.

هوش مصنوعی در پژوهش؛ از ابزار کمکی تا منبع آلودگی علمی

ژو در پاسخ به گاردین حاضر نشد صریح بگوید آیا مقالاتش با کمک مدل‌های زبانی نوشته شده‌اند یا نه؛ فقط اشاره کرد که تیم او از «ابزارهای استاندارد بهره‌وری، مثل مدیریت مراجع، اصلاح املایی و گاهی مدل‌های زبانی برای ویرایش نگارشی و بهبود شفافیت متن» استفاده می‌کند.

اما مسأله فقط ژو نیست. نقش هوش مصنوعی در پژوهش دانشگاهی از همان ابتدای محبوبیت ChatGPT و ابزارهای مشابه به موضوعی بحث‌برانگیز تبدیل شد. این مدل‌ها هنوز هم به‌راحتی دچار «هالوسینیشن» می‌شوند؛ یعنی منابع و ارجاعاتی را از خود می‌سازند که اصلاً وجود ندارند، و با این وجود، گاهی از سد داوری هم عبور کرده و در ژورنال‌های معتبر چاپ می‌شوند.

نمونه‌هایی مثل مقاله‌ای که در آن، نمودار موش آزمایشگاهی با اندامی اغراق‌آمیز و غیرواقعی توسط هوش مصنوعی تولید و بدون توجه داوران علمی چاپ شد، این سؤال را جدی‌تر می‌کند: نظارت واقعی کجاست؟ چه کسی کیفیت را تضمین می‌کند وقتی خود داوران هم گاهی از ابزارهای هوش مصنوعی برای مرور و خلاصه‌سازی استفاده می‌کنند؟

گزارش‌هایی منتشر شده که نشان می‌دهد برخی نویسندگان حتی متن پنهان در مقالات خود قرار می‌دهند تا سیستم‌های مبتنی بر هوش مصنوعی که برای کمک به داوری به کار گرفته می‌شوند، فریب بخورند و امتیاز مثبت بدهند. به این ترتیب، ابزارهایی که قرار بود سرعت و کیفیت پژوهش را بالا ببرند، در حال تبدیل‌شدن به بخشی از مشکل هستند.

وقتی هوش مصنوعی قربانی محصول خودش می‌شود

وجه نگران‌کننده ماجرا اینجاست که خود حوزه پژوهش هوش مصنوعی، به‌تدریج قربانی خروجی‌های تولیدشده با هوش مصنوعی شده است. اگر مقالات اصیل و نوآورانه در انبوه کارهای تکراری، سطحی و گاه با منابع ساختگی گم شوند، آینده نسل بعدی دانشمندان این حوزه چه می‌شود؟

پژوهشگر جوانی که واقعاً تلاش می‌کند مسئله‌ای بنیادی را حل کند، چگونه باید در برابر سیل همتایانی رقابت کند که به کمک مدل‌های زبانی، هر هفته یک مقاله جدید به خط تولید خود اضافه می‌کنند؟ پاداش گرفتن «کمیت» به جای «کیفیت»، می‌تواند به‌تدریج انگیزه جدی‌نویسی و کار طولانی‌مدت روی مسائل سخت را نابود کند.

هانی فرید می‌گوید حتی برای یک پژوهشگر باتجربه هم، پیگیری این حجم از خروجی تقریباً غیرممکن شده است: «شما به‌عنوان یک خواننده معمولی، هیچ شانسی ندارید بفهمید واقعاً در ادبیات علمی چه خبر است. نسبت سیگنال به نویز تقریباً یک است. من خودم به‌سختی می‌توانم به این کنفرانس‌ها بروم و بفهمم واقعاً چه اتفاقی دارد می‌افتد.»

اگر مهم‌ترین کنفرانس‌های هوش مصنوعی به میدان آزمون‌وخطای بی‌پایان و ویترین مقالات تولیدانبوه تبدیل شوند، اعتماد به کل اکوسیستم پژوهش زیر سؤال می‌رود؛ از شرکت‌های سرمایه‌گذار که بر اساس این مقالات تصمیم می‌گیرند گرفته تا دانشگاه‌ها و حتی سیاست‌گذارانی که به نتایج تحقیقات برای تنظیم مقررات جدید تکیه می‌کنند.

شاید بزرگ‌ترین چالش پیش‌رو این باشد: چگونه می‌توان مرزی روشن میان استفاده مسئولانه از هوش مصنوعی به‌عنوان ابزار کمکی در پژوهش و تبدیل‌شدن آن به موتور تولید «اسلاپ‌ساینس» کشید؟ و آیا جامعه علمی جهانی می‌تواند به‌اندازه کافی سریع، استانداردها و نظام داوری خود را به‌روز کند تا این بحران را مهار کند، پیش از آن‌که اعتماد به علم در حوزه هوش مصنوعی به‌طور جدی فرسوده شود؟

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید