مدتی است که دانشگاهها در سراسر جهان برای مقابله باِ استفاده احتمالی دانشجویان از ابزارهای هوش مصنوعی در انجام تکالیف، به سیستمهای خودکار روی آوردهاند — اما این ابزارها گاهی دانشجویان بیگناه را متهم میکنند و زندگی آکادمیک و شغلی آنان را به مخاطره میاندازند.
وقتی الگوریتمها حکم قاضی را پیدا میکنند
ماجرا برای مادلین، دانشجوی پرستاری، با یک ایمیل ساده شروع شد: «نگرانی در مورد یکپارچگی علمی». دانشگاه او با استناد به گزارشی که خودِ یک سیستم هوش مصنوعی تهیه کرده بود، او را متهم به تقلب کرد. نتیجه؟ شش ماه منتظر ماندن تا اتهام برداشته شود و کارنامهای با وضعیت «نمرات به تعویق افتاده» — اتفاقی که عملاً فرصتهای شغلی فارغالتحصیلی او را از بین برد.
چرا مشکل اینقدر بزرگ شد؟
طبق گزارشها، دانشگاه مذکور حدود 6 هزار پرونده تخلف آموزشی ثبت کرده که نزدیک به 90 درصد آنها به استفاده از هوش مصنوعی نسبت داده شدهاند. در چنین فضایی، ابزارهای تشخیص که قرار است کمککننده باشند، بهخاطر نرخ خطا و تکیه تنها بر شواهد ماشینی، خود منبع مشکل شدند.
ابزارها چقدر قابل اعتمادند؟ (پرسش نه چندان ساده)
یکی از ابزارهایی که در این پرونده مطرح شد، سامانهای از شرکت Turnitin است که برای شناسایی تولید محتوا توسط هوش مصنوعی استفاده میشود. خودِ Turnitin هم در وبسایتش هشدار میدهد که نباید این نتایج را بهتنهایی بهعنوان دلیل قطعی برای اعمال مجازات در نظر گرفت. با این حال، در عمل برخی دانشگاهها بر اساس همین گزارشها اقدام میکنند، گاهی بدون بررسیهای عمیقتر.
تا کجا باید دانشجو برای اثبات بیگناهی پیش برود؟
در موارد گزارششده، از دانشجویان خواسته شد تا همه یادداشتهای دستنویس و تایپی، حتی سابقه جستوجوی اینترنتیشان را تحویل دهند؛ چیزی که بسیاری آن را ورود به حریم خصوصی میدانند. دانشجویی که پروندهاش بهخاطر یک گزارش ماشینی باز شده بود گفت: «آنها پلیس نیستند و حکم بازرسی ندارند، اما وقتی هزینه تکرار واحد یا از دست رفتن سال فارغالتحصیلی روی میز است، مجبور به همکاری میشویم.»
تناقض پیام دانشگاهها: ابزار را میپذیرند اما تهدید میکنند
مشکل اصلی فقط خطای تشخیص نیست؛ تناقض در پیام دانشگاهها به دانشجویان است. از یک سو بسیاری از مؤسسات آموزشی همکاری پایلوتی با شرکتهای هوش مصنوعی آغاز میکنند یا خود ابزارهای هوشمند را در کلاسها میپذیرند؛ و از سوی دیگر، همان ابزارها بهانهای برای متهمسازی میشوند. این تناقض باعث میشود اعتماد بین استاد و دانشجو تضعیف شود.
چه باید کرد؟ راهکارهایی که دانشگاهها باید در نظر بگیرند
- استفاده از ابزارهای تشخیص بهعنوان یک راهنما، نه مدرک قطعی — همیشه بررسی انسانی لازم است.
- شفافسازی سیاستهای استفاده از هوش مصنوعی: چه چیز مجاز است و چه استفادهای تقلب محسوب میشود.
- محافظت از حریم خصوصی دانشجویان؛ درخواست دسترسی گسترده به تاریخچهٔ جستوجو یا دادههای شخصی باید با رعایت قوانین و حداقل شود.
- آموزش اساتید و کارمندان واحدهای انتظامی دانشگاه در مورد محدودیتهای ابزارهای AI و نحوهٔ رسیدگی منصفانه به شکایات.
- ایجاد مکانیزمهای رسیدگی سریع و شفاف تا دانشجویان نیروی خود را برای یافتن کار یا ادامه تحصیل از دست ندهند.
داستان مادلین و گزارشهای مشابه در استرالیا زنگ هشداری برای دانشگاهها در سراسر دنیا هستند: پذیرش فناوری نباید به قیمت ازدسترفتن عدالت و حقوق دانشجویان تمام شود. هوش مصنوعی میتواند ابزار قدرتمندی برای آموزش باشد، اما وقتی بهعنوان قاضی محاسبهگر عمل میکند، باید پلهایی برای بازگرداندن اعتماد ساخته شوند.

