یک هکر با فریب ChatGPT، دستورالعمل ساخت بمب را به دست آورد!
هکری با استفاده از ترفندهای خاص، موفق شده است ChatGPT، یکی از پیشرفتهترین مدلهای زبانی هوش مصنوعی، را فریب دهد تا دستورالعملهای ساخت بمب را در اختیار او قرار دهد. این اتفاق زنگ خطری جدی برای امنیت و محدودیتهای هوش مصنوعی به صدا درآورده است. هکر با استفاده از یک سری دستورات پیچیده و شبیهسازی […]
یک هکر با فریب ChatGPT، دستورالعمل ساخت بمب را به دست آورد! ادامۀ مطلب »