اتهامات نادرست تقلب با هوش مصنوعی علیه دانشجویان!

مدتی است که دانشگاه‌ها در سراسر جهان برای مقابله باِ استفاده احتمالی دانشجویان از ابزارهای هوش مصنوعی در انجام تکالیف، به سیستم‌های خودکار روی آورده‌اند — اما این ابزارها گاهی دانشجویان بی‌گناه را متهم می‌کنند و زندگی آکادمیک و شغلی آنان را به مخاطره می‌اندازند.

وقتی الگوریتم‌ها حکم قاضی را پیدا می‌کنند

ماجرا برای مادلین، دانشجوی پرستاری، با یک ایمیل ساده شروع شد: «نگرانی در مورد یکپارچگی علمی». دانشگاه او با استناد به گزارشی که خودِ یک سیستم هوش مصنوعی تهیه کرده بود، او را متهم به تقلب کرد. نتیجه؟ شش ماه منتظر ماندن تا اتهام برداشته شود و کارنامه‌ای با وضعیت «نمرات به تعویق افتاده» — اتفاقی که عملاً فرصت‌های شغلی فارغ‌التحصیلی او را از بین برد.

چرا مشکل این‌قدر بزرگ شد؟

طبق گزارش‌ها، دانشگاه مذکور حدود 6 هزار پرونده تخلف آموزشی ثبت کرده که نزدیک به 90 درصد آنها به استفاده از هوش مصنوعی نسبت داده شده‌اند. در چنین فضایی، ابزارهای تشخیص که قرار است کمک‌کننده باشند، به‌خاطر نرخ خطا و تکیه تنها بر شواهد ماشینی، خود منبع مشکل شدند.

ابزارها چقدر قابل اعتمادند؟ (پرسش نه چندان ساده)

یکی از ابزارهایی که در این پرونده مطرح شد، سامانه‌ای از شرکت Turnitin است که برای شناسایی تولید محتوا توسط هوش مصنوعی استفاده می‌شود. خودِ Turnitin هم در وب‌سایتش هشدار می‌دهد که نباید این نتایج را به‌تنهایی به‌عنوان دلیل قطعی برای اعمال مجازات در نظر گرفت. با این حال، در عمل برخی دانشگاه‌ها بر اساس همین گزارش‌ها اقدام می‌کنند، گاهی بدون بررسی‌های عمیق‌تر.

تا کجا باید دانشجو برای اثبات بی‌گناهی پیش برود؟

در موارد گزارش‌شده، از دانشجویان خواسته شد تا همه یادداشت‌های دست‌نویس و تایپی، حتی سابقه جست‌وجوی اینترنتی‌شان را تحویل دهند؛ چیزی که بسیاری آن را ورود به حریم خصوصی می‌دانند. دانشجویی که پرونده‌اش به‌خاطر یک گزارش ماشینی باز شده بود گفت: «آن‌ها پلیس نیستند و حکم بازرسی ندارند، اما وقتی هزینه تکرار واحد یا از دست رفتن سال فارغ‌التحصیلی روی میز است، مجبور به همکاری می‌شویم.»

تناقض پیام دانشگاه‌ها: ابزار را می‌پذیرند اما تهدید می‌کنند

مشکل اصلی فقط خطای تشخیص نیست؛ تناقض در پیام‌ دانشگاه‌ها به دانشجویان است. از یک سو بسیاری از مؤسسات آموزشی همکاری پایلوتی با شرکت‌های هوش مصنوعی آغاز می‌کنند یا خود ابزارهای هوشمند را در کلاس‌ها می‌پذیرند؛ و از سوی دیگر، همان ابزارها بهانه‌ای برای متهم‌سازی می‌شوند. این تناقض باعث می‌شود اعتماد بین استاد و دانشجو تضعیف شود.

چه باید کرد؟ راهکارهایی که دانشگاه‌ها باید در نظر بگیرند

  • استفاده از ابزارهای تشخیص به‌عنوان یک راهنما، نه مدرک قطعی — همیشه بررسی انسانی لازم است.
  • شفاف‌سازی سیاست‌های استفاده از هوش مصنوعی: چه چیز مجاز است و چه استفاده‌ای تقلب محسوب می‌شود.
  • محافظت از حریم خصوصی دانشجویان؛ درخواست دسترسی گسترده به تاریخچهٔ جست‌وجو یا داده‌های شخصی باید با رعایت قوانین و حداقل شود.
  • آموزش اساتید و کارمندان واحدهای انتظامی دانشگاه در مورد محدودیت‌های ابزارهای AI و نحوهٔ رسیدگی منصفانه به شکایات.
  • ایجاد مکانیزم‌های رسیدگی سریع و شفاف تا دانشجویان نیروی خود را برای یافتن کار یا ادامه تحصیل از دست ندهند.

داستان مادلین و گزارش‌های مشابه در استرالیا زنگ هشداری برای دانشگاه‌ها در سراسر دنیا هستند: پذیرش فناوری نباید به قیمت ازدست‌رفتن عدالت و حقوق دانشجویان تمام شود. هوش مصنوعی می‌تواند ابزار قدرتمندی برای آموزش باشد، اما وقتی به‌عنوان قاضی محاسبه‌گر عمل می‌کند، باید پل‌هایی برای بازگرداندن اعتماد ساخته شوند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید