در دنیای پرهیاهوی هوش مصنوعی، اخیراً خبری مبنی بر اتهام شرکت دیپسیک به استفاده از مدلهای OpenAI برای آموزش مدل خود، جنجال زیادی به پا کرده است. OpenAI مدعی است که شواهدی در اختیار دارد که نشان میدهد دیپسیک از روشی به نام “استخراج دانش” (Distillation) برای این کار استفاده کرده است.
استخراج دانش چیست؟
استخراج دانش روشی است که در آن از خروجیهای یک مدل از پیش آموزشدیده برای آموزش مدل جدید استفاده میشود. به عبارت دیگر، مدل جدید با “یادگیری” از مدل قدیمیتر، میتواند با صرف هزینه و زمان کمتری توسعه یابد. دیپسیک ادعا میکند که مدل R1 خود را با استفاده از این روش و با هزینهای به مراتب کمتر توسعه داده است.
استفاده از روش استخراج دانش به خودی خود قانونی است، اما در مورد دیپسیک، این شرکت به نقض قوانین OpenAI متهم شده است. طبق قوانین OpenAI، کاربران نمیتوانند از API این شرکت برای کپی کردن خدمات آن یا توسعه مدلهای رقیب استفاده کنند. به گفته فایننشال تایمز، OpenAI و مایکروسافت سال گذشته حسابهایی را شناسایی و مسدود کردند که احتمالاً متعلق به دیپسیک بودهاند و برای استخراج دانش از مدلهای OpenAI استفاده میشدند.
این خبر با واکنشهای مختلفی از سوی فعالان حوزه هوش مصنوعی و رسانهها روبرو شده است. برخی معتقدند که در صورت اثبات این اتهام، دیپسیک قوانین OpenAI را نقض کرده و باید پاسخگوی این عمل خود باشد. از سوی دیگر، برخی دیگر با اشاره به اتهامات مشابهی که قبلاً به خود OpenAI وارد شده بود، این موضوع را پیچیدهتر میدانند.
اتهامات علیه OpenAI
نکته قابل توجه این است که OpenAI نیز بارها به استفاده بدون مجوز از دادهها برای آموزش مدلهای خود متهم شده است. در دسامبر ۲۰۲۳، نیویورک تایمز از OpenAI شکایت کرد و مدعی شد که استفاده این شرکت از دادههایش تحت مفهوم “استفاده منصفانه” قرار نمیگیرد. رسانههای دیگر نیز شکایتهای مشابهی را مطرح کردند.
در نهایت، اگرچه OpenAI خود با چنین اتهاماتی مواجه بوده، این مسئله نمیتواند رفتار دیپسیک را توجیه کند. OpenAI قوانین روشنی برای ممنوعیت استفاده رقابتی از مدلهایش دارد. با این حال، مطرح کردن این اتهام از سوی شرکتی که خود متهم به نقض حقوق داده است، قابل تأمل به نظر میرسد. به نظر میرسد که این پرونده همچنان در دست بررسی است و باید منتظر نتایج نهایی آن باشیم.