سه سال بیشتر از ظهور ChatGPT نگذشته، اما اینترنتی که میشناختیم زیر موجی از متنهای خودکار و مقالههای «بوی هوش مصنوعیدار» تقریبا واژگون شده است. آنچه زمانی کار تخصصی روزنامهنگاران، نویسندگان و تحلیلگران بود، حالا با چند خط پرامپت در چند ثانیه روی صفحه ظاهر میشود؛ ظاهرا حرفهای و مطمئن، اما در بسیاری موارد عمیقا جعلی و پر از خطا.
از وکلایی که در دادگاه به پروندههایی استناد کردند که اصلا وجود خارجی نداشت، تا ترانههایی که خوانندههای مشهور روی صحنه میخوانند اما بخش زیادی از آنها را مدلهای زبانی نوشتهاند، مرز بین واقعیت و شبیهسازی هر روز تارتر میشود. در این میانه، روزنامهنگاری شاید بیش از هر صنعت دیگری درگیر یک بحران هویتی عمیق است: وقتی هر کسی میتواند در چند دقیقه متنی «جدی و مستند» بسازد، اعتبار چه کسی باید باور شود؟
وقتی یک پیشنهاد همکاری بوی جعلی میدهد
ماجرای تازهای که در مجله آنلاین کانادایی The Local بازتاب پیدا کرده، نمونهای کوچک اما هشداردهنده از این بحران است. نیکولاس هیون-براون، سردبیر این رسانه مستقر در تورنتو، تعریف میکند که چطور تا آستانه سپردن یک گزارش جدی به نویسندهای به نام «ویکتوریا گلدی» پیش رفته بود؛ نویسندهای که با چند لینک و رزومه ظاهرا معتبر، خودش را کاملا حرفهای و قابلاعتماد نشان داده بود.
او با یک جستوجوی ساده در گوگل مطمئن شد که گلدی در رسانههای مختلفی مطلب نوشته است. همهچیز در نگاه اول طبیعی به نظر میرسید؛ درست شبیه صدها فریلنسر دیگری که هر روز در سراسر جهان برای رسانهها مطلب میفرستند.
اما نشانههای مشکوک خیلی زود ظاهر شدند. لحن ایمیلها «خشک و تصنعی» بود؛ درست همان ناهماهنگی آشنایی که بسیاری از ما در متنهای تولیدشده توسط چتباتها دیدهایم. هیون-براون در ادامه، وقتی شروع به بررسی دقیقتر نقلقولها و منابع کرد، متوجه شد که مشکل بسیار جدیتر از چند جمله کمی عجیب است.
نقلقولهایی که هیچوقت گفته نشده بودند
طراح داخلی «یونگ هاه» یکی از کسانی بود که نام و نقلقولش در مقالهای از گلدی برای نشریه طراحی Dwell آمده بود؛ نشریهای که زیرمجموعه همان شرکت مادر وبسایت Futurism است. اما وقتی هیون-براون با او تماس گرفت، جواب صریح بود: «من هیچوقت با این خبرنگار صحبت نکردهام و چنین جملهای نگفتهام.»
او تنها مورد نبود. سایر سردبیرانی که قبلا با گلدی کار کرده یا از او پیشنهاد مطلب دریافت کرده بودند، الگوی مشابهی را گزارش کردند: متنهایی که بیش از حد شبیه مطالب دیگران بود، نقلقولهایی که ردشان در دنیای واقعی پیدا نمیشد، و ساختاری که بیشتر به ترکیبچسباندن خروجی هوش مصنوعی میمانست تا کار یک خبرنگار میدانی.
نانسی اینهارت، سردبیر سابق PS، به یاد میآورد که «مقالههایی با نام ویکتوریا بیش از حد از مطالب دیگر کپیبرداری کرده بود. ناامید شدم چون ایدههای اولیهاش جذاب به نظر میرسید.» او به هیون-براون گفت در چند ماه اخیر حداقل دو سردبیر دیگر هم درباره همین نویسنده با او تماس گرفتهاند: «کاملا معلوم است که در یک تور ارسال پیشنهاد سراسری است.»
آیا «ویکتوریا گلدی» واقعا وجود دارد؟
خود این هویت هم در هالهای از ابهام است. هیون-براون در نهایت توانست با فردی که خود را گلدی معرفی میکرد تلفنی صحبت کند، اما به محض آنکه سوالها رنگ و بوی جدی و چالشی به خود گرفت، تماس قطع شد. نه شواهد قانعکنندهای از سابقه واقعی او وجود دارد، نه میتوان مطمئن بود که این نام چیزی بیش از یک تخلص یا هویت جعلی برای تولید انبوه محتواست.
این پرونده تنها یک مورد از موج رو به رشد کلاهبردارانی است که با عنوان «فریلنسر» یا «خبرنگار مستقل» به تحریریهها نزدیک میشوند؛ متنهایی میفرستند که ترکیبی از خروجی هوش مصنوعی، سرقت ادبی، و نقلقولهای کاملا ساختگی از افراد واقعی است. حتی نشریات خوشنام و شناختهشدهای مثل Wired و Quartz هم در سالهای اخیر ناخواسته برخی از این متنها را منتشر کردهاند.
هیون-براون این روند را نشانه «سقوط آرام اما مداوم استانداردها» میداند؛ روندی که در بستر موج اخراجها و کاهش بودجهها در صنعت رسانه، سرعت گرفته است. در فضایی که مدیران برای جبران کمبود منابع، خبرنگاران را به استفاده از ابزارهای هوش مصنوعی تشویق میکنند، تشخیص مرز بین کمکگرفتن از تکنولوژی و سپردن تمام کار به الگوریتمها آسان نیست؛ به ویژه وقتی خود این ابزارها سابقهای طولانی در جعل اطلاعات و «هالوسینیشن» دارند.
وقتی اکوسیستم رسانه برای تقلب آماده است
در سوی دیگر ماجرا، پلتفرمهایی مثل گوگل هم ناخواسته فشار را روی رسانهها بیشتر کردهاند. نمایش خلاصههای مبتنی بر هوش مصنوعی در صفحه نتایج جستوجو – که بارها ثابت شده پر از خطا و اطلاعات نادرست است – کاربران را از کلیک روی لینکها بینیاز میکند؛ اما درست همین کلیکهاست که مدل درآمدی بسیاری از وبسایتهای خبری و تحلیلی را زنده نگه میداند.
به تعبیر هیون-براون، کلاهبرداران دارند از «اکوسیستمی سوءاستفاده میکنند که به شکل منحصر بهفردی مستعد تقلب است؛ جایی که رسانههای معتبر، زیر نامهای پرآوازه خود محتوایی لرزان و بیپشتوانه منتشر میکنند، جایی که تیمهای راستیآزمایی حذف شدهاند و دبیران زیر فشار حجم کار خسته و بیدقت شدهاند، جایی که تکنولوژی جعل پیشنهادهای همکاری و نوشتن یک مقاله کامل را مضحکانه آسان کرده است، و جایی که سالها تقلیل روزنامهنگاری به «صرفا محتوا» خطها را آنقدر محو کرده که گاهی یادمان میرود اصلا مرزی وجود داشته است.»
بعد از تماسهای او، چند رسانه از جمله The Guardian و Dwell، مطالب منتشرشده با نام ویکتوریا گلدی را حذف کردند. اما این پاکسازی دیرهنگام، حس بدی را برای هیون-براون باقی گذاشته است؛ حسی نسبت به آیندهای نهچندان دور که در آن شرایط برای روزنامهنگاران واقعی باز هم سختتر خواهد شد.
چهرهای مصنوعی روی ایمیلهای واقعی
هیون-براون مینویسد: «بیشتر دوران حرفهایام را بهعنوان نویسنده فریلنس گذراندهام، برای همین همیشه وقتی سردبیر بودهام، سعی کردهام به هر پیشنهاد جدی و فکرشدهای جواب بدهم.» اما حالا وقتی به صندوق ورودیاش نگاه میکند، چیزی که میبیند بیشتر از هر چیز دیگری «برق مصنوعی هوش مصنوعی» است.
او میگوید احتمالا در میان همین ایمیلها، چند نویسنده جوان و بااستعداد هم حضور داشتند؛ کسانی که واقعا میخواستند در روزنامهنگاری جای پایی برای خودشان باز کنند. اما حجم بالای پیشنهادهای جعلی، مقالههای مونتاژی و متنهای تولیدشده توسط ماشین، انگیزه جستوجو را از بین میبرد: «دیگر توان این را نداشتم که در میان این همه مزخرف بگردم تا شاید یکی دو استعداد واقعی پیدا کنم.»
برای رسانههایی که میخواهند همزمان هم سرعت و هم دقت را حفظ کنند، این ماجرا یک زنگ خطر جدی است. شاید سوال اصلی دیگر این نباشد که «آیا باید از هوش مصنوعی استفاده کرد یا نه؟» بلکه این باشد که چطور میتوان در دنیایی که ماشینها خیلی بهتر از انسانها تظاهر میکنند، دوباره اعتبار، تحقیق میدانی و گفتوگوی واقعی با آدمهای واقعی را به اولویت اول بازگرداند.




