روزنامه‌نگاری که مقالات جعلی تولید شده توسط هوش مصنوعی منتشر می‌کرد، دستگیر شد!

سه سال بیشتر از ظهور ChatGPT نگذشته، اما اینترنتی که می‌شناختیم زیر موجی از متن‌های خودکار و مقاله‌های «بوی هوش مصنوعی‌دار» تقریبا واژگون شده است. آنچه زمانی کار تخصصی روزنامه‌نگاران، نویسندگان و تحلیل‌گران بود، حالا با چند خط پرامپت در چند ثانیه روی صفحه ظاهر می‌شود؛ ظاهرا حرفه‌ای و مطمئن، اما در بسیاری موارد عمیقا جعلی و پر از خطا.

از وکلایی که در دادگاه به پرونده‌هایی استناد کردند که اصلا وجود خارجی نداشت، تا ترانه‌هایی که خواننده‌های مشهور روی صحنه می‌خوانند اما بخش زیادی از آن‌ها را مدل‌های زبانی نوشته‌اند، مرز بین واقعیت و شبیه‌سازی هر روز تارتر می‌شود. در این میانه، روزنامه‌نگاری شاید بیش از هر صنعت دیگری درگیر یک بحران هویتی عمیق است: وقتی هر کسی می‌تواند در چند دقیقه متنی «جدی و مستند» بسازد، اعتبار چه کسی باید باور شود؟

وقتی یک پیشنهاد همکاری بوی جعلی می‌دهد

ماجرای تازه‌ای که در مجله آنلاین کانادایی The Local بازتاب پیدا کرده، نمونه‌ای کوچک اما هشداردهنده از این بحران است. نیکولاس هیون-براون، سردبیر این رسانه مستقر در تورنتو، تعریف می‌کند که چطور تا آستانه سپردن یک گزارش جدی به نویسنده‌ای به نام «ویکتوریا گلدی» پیش رفته بود؛ نویسنده‌ای که با چند لینک و رزومه ظاهرا معتبر، خودش را کاملا حرفه‌ای و قابل‌اعتماد نشان داده بود.

او با یک جست‌وجوی ساده در گوگل مطمئن شد که گلدی در رسانه‌های مختلفی مطلب نوشته است. همه‌چیز در نگاه اول طبیعی به نظر می‌رسید؛ درست شبیه صدها فریلنسر دیگری که هر روز در سراسر جهان برای رسانه‌ها مطلب می‌فرستند.

اما نشانه‌های مشکوک خیلی زود ظاهر شدند. لحن ایمیل‌ها «خشک و تصنعی» بود؛ درست همان ناهماهنگی آشنایی که بسیاری از ما در متن‌های تولیدشده توسط چت‌بات‌ها دیده‌ایم. هیون-براون در ادامه، وقتی شروع به بررسی دقیق‌تر نقل‌قول‌ها و منابع کرد، متوجه شد که مشکل بسیار جدی‌تر از چند جمله کمی عجیب است.

نقل‌قول‌هایی که هیچ‌وقت گفته نشده بودند

طراح داخلی «یونگ هاه» یکی از کسانی بود که نام و نقل‌قولش در مقاله‌ای از گلدی برای نشریه طراحی Dwell آمده بود؛ نشریه‌ای که زیرمجموعه همان شرکت مادر وب‌سایت Futurism است. اما وقتی هیون-براون با او تماس گرفت، جواب صریح بود: «من هیچ‌وقت با این خبرنگار صحبت نکرده‌ام و چنین جمله‌ای نگفته‌ام.»

او تنها مورد نبود. سایر سردبیرانی که قبلا با گلدی کار کرده یا از او پیشنهاد مطلب دریافت کرده بودند، الگوی مشابهی را گزارش کردند: متن‌هایی که بیش از حد شبیه مطالب دیگران بود، نقل‌قول‌هایی که ردشان در دنیای واقعی پیدا نمی‌شد، و ساختاری که بیشتر به ترکیب‌چسباندن خروجی هوش مصنوعی می‌مانست تا کار یک خبرنگار میدانی.

نانسی اینهارت، سردبیر سابق PS، به یاد می‌آورد که «مقاله‌هایی با نام ویکتوریا بیش از حد از مطالب دیگر کپی‌برداری کرده بود. ناامید شدم چون ایده‌های اولیه‌اش جذاب به نظر می‌رسید.» او به هیون-براون گفت در چند ماه اخیر حداقل دو سردبیر دیگر هم درباره همین نویسنده با او تماس گرفته‌اند: «کاملا معلوم است که در یک تور ارسال پیشنهاد سراسری است.»

آیا «ویکتوریا گلدی» واقعا وجود دارد؟

خود این هویت هم در هاله‌ای از ابهام است. هیون-براون در نهایت توانست با فردی که خود را گلدی معرفی می‌کرد تلفنی صحبت کند، اما به محض آن‌که سوال‌ها رنگ و بوی جدی و چالشی به خود گرفت، تماس قطع شد. نه شواهد قانع‌کننده‌ای از سابقه واقعی او وجود دارد، نه می‌توان مطمئن بود که این نام چیزی بیش از یک تخلص یا هویت جعلی برای تولید انبوه محتواست.

این پرونده تنها یک مورد از موج رو به رشد کلاهبردارانی است که با عنوان «فریلنسر» یا «خبرنگار مستقل» به تحریریه‌ها نزدیک می‌شوند؛ متن‌هایی می‌فرستند که ترکیبی از خروجی هوش مصنوعی، سرقت ادبی، و نقل‌قول‌های کاملا ساختگی از افراد واقعی است. حتی نشریات خوش‌نام و شناخته‌شده‌ای مثل Wired و Quartz هم در سال‌های اخیر ناخواسته برخی از این متن‌ها را منتشر کرده‌اند.

هیون-براون این روند را نشانه «سقوط آرام اما مداوم استانداردها» می‌داند؛ روندی که در بستر موج اخراج‌ها و کاهش بودجه‌ها در صنعت رسانه، سرعت گرفته است. در فضایی که مدیران برای جبران کمبود منابع، خبرنگاران را به استفاده از ابزارهای هوش مصنوعی تشویق می‌کنند، تشخیص مرز بین کمک‌گرفتن از تکنولوژی و سپردن تمام کار به الگوریتم‌ها آسان نیست؛ به ویژه وقتی خود این ابزارها سابقه‌ای طولانی در جعل اطلاعات و «هالوسینیشن» دارند.

وقتی اکوسیستم رسانه برای تقلب آماده است

در سوی دیگر ماجرا، پلتفرم‌هایی مثل گوگل هم ناخواسته فشار را روی رسانه‌ها بیشتر کرده‌اند. نمایش خلاصه‌های مبتنی بر هوش مصنوعی در صفحه نتایج جست‌وجو – که بارها ثابت شده پر از خطا و اطلاعات نادرست است – کاربران را از کلیک روی لینک‌ها بی‌نیاز می‌کند؛ اما درست همین کلیک‌هاست که مدل درآمدی بسیاری از وب‌سایت‌های خبری و تحلیلی را زنده نگه می‌داند.

به تعبیر هیون-براون، کلاهبرداران دارند از «اکوسیستمی سوءاستفاده می‌کنند که به شکل منحصر به‌فردی مستعد تقلب است؛ جایی که رسانه‌های معتبر، زیر نام‌های پرآوازه خود محتوایی لرزان و بی‌پشتوانه منتشر می‌کنند، جایی که تیم‌های راستی‌آزمایی حذف شده‌اند و دبیران زیر فشار حجم کار خسته و بی‌دقت شده‌اند، جایی که تکنولوژی جعل پیشنهادهای همکاری و نوشتن یک مقاله کامل را مضحکانه آسان کرده است، و جایی که سال‌ها تقلیل روزنامه‌نگاری به «صرفا محتوا» خط‌ها را آن‌قدر محو کرده که گاهی یادمان می‌رود اصلا مرزی وجود داشته است.»

بعد از تماس‌های او، چند رسانه از جمله The Guardian و Dwell، مطالب منتشرشده با نام ویکتوریا گلدی را حذف کردند. اما این پاک‌سازی دیرهنگام، حس بدی را برای هیون-براون باقی گذاشته است؛ حسی نسبت به آینده‌ای نه‌چندان دور که در آن شرایط برای روزنامه‌نگاران واقعی باز هم سخت‌تر خواهد شد.

چهره‌ای مصنوعی روی ایمیل‌های واقعی

هیون-براون می‌نویسد: «بیشتر دوران حرفه‌ای‌ام را به‌عنوان نویسنده فریلنس گذرانده‌ام، برای همین همیشه وقتی سردبیر بوده‌ام، سعی کرده‌ام به هر پیشنهاد جدی و فکرشده‌ای جواب بدهم.» اما حالا وقتی به صندوق ورودی‌اش نگاه می‌کند، چیزی که می‌بیند بیشتر از هر چیز دیگری «برق مصنوعی هوش مصنوعی» است.

او می‌گوید احتمالا در میان همین ایمیل‌ها، چند نویسنده جوان و بااستعداد هم حضور داشتند؛ کسانی که واقعا می‌خواستند در روزنامه‌نگاری جای پایی برای خودشان باز کنند. اما حجم بالای پیشنهادهای جعلی، مقاله‌های مونتاژی و متن‌های تولیدشده توسط ماشین، انگیزه جست‌وجو را از بین می‌برد: «دیگر توان این را نداشتم که در میان این همه مزخرف بگردم تا شاید یکی دو استعداد واقعی پیدا کنم.»

برای رسانه‌هایی که می‌خواهند همزمان هم سرعت و هم دقت را حفظ کنند، این ماجرا یک زنگ خطر جدی است. شاید سوال اصلی دیگر این نباشد که «آیا باید از هوش مصنوعی استفاده کرد یا نه؟» بلکه این باشد که چطور می‌توان در دنیایی که ماشین‌ها خیلی بهتر از انسان‌ها تظاهر می‌کنند، دوباره اعتبار، تحقیق میدانی و گفت‌وگوی واقعی با آدم‌های واقعی را به اولویت اول بازگرداند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید