یک هکر با فریب ChatGPT، دستورالعمل ساخت بمب را به دست آورد!
هکری با استفاده از ترفندهای خاص، موفق شده است ChatGPT، یکی از پیشرفتهترین مدلهای زبانی هوش مصنوعی، را فریب دهد تا دستورالعملهای ساخت بمب را در اختیار او قرار دهد. این اتفاق زنگ خطری جدی برای …
یک هکر با فریب ChatGPT، دستورالعمل ساخت بمب را به دست آورد! ادامه مطلب »