آیا خلاصهسازی پژوهش با هوش مصنوعی قابل اعتماد است؟
در شبکههای اجتماعی و کلاسهای آموزشی، درخواستهایی مثل «برای یک دانشآموز پنجم ابتدایی توضیح بده» برای ابزارهای هوش مصنوعی مثل ChatGPT بسیار رایج شده است. این ابزارها توانایی تبدیل زبان فنی به بیان ساده را نشان دادهاند؛ اما وقتی پای خلاصهسازی مقالات پژوهشی در میان است، کارشناسان هشدار میدهند که تکیه کامل روی آنها میتواند خطرناک باشد.
چه چیزی آزمایش شد؟
دفتر مطبوعاتی مجله Science و تیم Science Press Package (SciPak) آزمایشی یکساله انجام دادند تا ببینند آیا نسخهٔ پولی ChatGPT (ChatGPT Plus) میتواند اطلاعات علمی را بهدرستی و بهزبان ساده منتقل کند یا نه. تیم آزمایش از مدل خواست سه خلاصهٔ متفاوت از دو مقالهٔ پژوهشی هر هفته تهیه کند و سپس این خلاصهها توسط نویسندگان انسانی بررسی شدند.
نتایج کلیدی
- خلاصهها اغلب «دقت» را فدای «سادگی» میکردند.
- متنها نیاز به «ویرایش گسترده برای اغراقزدایی» داشتند؛ مدل میل به بزرگنمایی نتایج داشت و از کلماتی مثل «تحولآفرین» یا «groundbreaking» زیاد استفاده میکرد.
- دشواری در بیان محدودیتهای پژوهش و عدم توانایی کافی در ترکیب دو رویداد پژوهشی در یک زمینه واحد مشاهده شد.
- وقتی با پژوهشهای بسیار فشرده و دقیق روبهرو میشد، مدل به اصطلاحات تخصصی بازمیگشت و این میتوانست اعتماد مخاطب را کاهش دهد.
بهگفتهٔ گزارش سفید تیم، «این ابزار نمیتواند یافتهها را بهصورت کاملاً قابلاعتماد برای مخاطبان غیرمتخصص سنتز یا ترجمه کند.»
دیدگاه یک نویسنده
ابایگیل آیزناشتات (Abigail Eisenstadt)، نویسندهٔ Press Package و عضو AAAS، نوشته است: «وقتی با پژوهشهایی که از اطلاعات، جزئیات و پیچیدگی بالایی برخوردار بودند مواجه شد، ChatGPT در نهایت به اصطلاحات تخصصی بازمیگشت.» این جمله نشاندهندهٔ شکاف بین تولید متن ساده و حفظ دقیق مفاهیم علمی است.
چه توصیههایی میتوان ارائه داد؟
برای رسانههای علمی و خوانندگان عمومی چند گزینه کاربردی وجود دارد:
- استفادهٔ ترکیبی: هوش مصنوعی میتواند در تولید پیشنویس یا پیدا کردن نکات کلیدی مفید باشد، اما همیشه به بازبینی و ویرایش انسانی نیاز دارد.
- تمرکز روی آموزش خبرنگاران علمی: روزنامهنگاران آموزشدیده توانایی ترجمهٔ دقیق یافتهها و توضیح محدودیتها را دارند.
- افزایش شفافیت: هنگام انتشار خلاصههای تولیدشده توسط هوش مصنوعی ذکر شود که متن نیاز به بازبینی تخصصی دارد.
در نهایت، بازار محتوا و آموزش دیجیتال همچنان به دنبال توازن میان بهرهگیری از مزایای سرعت و هزینهٔ هوش مصنوعی و حفظ دقت علمی است. استفادهٔ مسئولانه از ابزارهایی مانند ChatGPT Plus میتواند در تولید محتوا مفید باشد، اما برای مقالات پژوهشی که پیامدها و جزئیات فنی اهمیت بالایی دارند، نظارت انسانی ضروری است.
این یافتهها برای پژوهشگران، خبرنگاران علمی و خوانندگان عام یک هشدار عملیاند: هوش مصنوعی ابزار قدرتمندی است، اما هنوز جایگزین تخصص و قضاوت انسانی در زمینهٔ ارتباطات علمی نشده است.




