avang

آیا هوش مصنوعی دیپ‌سیک از ChatGPT برای آموزش مدل خود استفاده کرده است؟

در دنیای پرهیاهوی هوش مصنوعی، اخیراً خبری مبنی بر اتهام شرکت دیپ‌سیک به استفاده از مدل‌های OpenAI برای آموزش مدل خود، جنجال زیادی به پا کرده است. OpenAI مدعی است که شواهدی در اختیار دارد که نشان می‌دهد دیپ‌سیک از روشی به نام “استخراج دانش” (Distillation) برای این کار استفاده کرده است.

استخراج دانش چیست؟

استخراج دانش روشی است که در آن از خروجی‌های یک مدل از پیش آموزش‌دیده برای آموزش مدل جدید استفاده می‌شود. به عبارت دیگر، مدل جدید با “یادگیری” از مدل قدیمی‌تر، می‌تواند با صرف هزینه و زمان کمتری توسعه یابد. دیپ‌سیک ادعا می‌کند که مدل R1 خود را با استفاده از این روش و با هزینه‌ای به مراتب کمتر توسعه داده است.

استفاده از روش استخراج دانش به خودی خود قانونی است، اما در مورد دیپ‌سیک، این شرکت به نقض قوانین OpenAI متهم شده است. طبق قوانین OpenAI، کاربران نمی‌توانند از API این شرکت برای کپی کردن خدمات آن یا توسعه مدل‌های رقیب استفاده کنند. به گفته فایننشال تایمز، OpenAI و مایکروسافت سال گذشته حساب‌هایی را شناسایی و مسدود کردند که احتمالاً متعلق به دیپ‌سیک بوده‌اند و برای استخراج دانش از مدل‌های OpenAI استفاده می‌شدند.

این خبر با واکنش‌های مختلفی از سوی فعالان حوزه هوش مصنوعی و رسانه‌ها روبرو شده است. برخی معتقدند که در صورت اثبات این اتهام، دیپ‌سیک قوانین OpenAI را نقض کرده و باید پاسخگوی این عمل خود باشد. از سوی دیگر، برخی دیگر با اشاره به اتهامات مشابهی که قبلاً به خود OpenAI وارد شده بود، این موضوع را پیچیده‌تر می‌دانند.

اتهامات علیه OpenAI

نکته قابل توجه این است که OpenAI نیز بارها به استفاده بدون مجوز از داده‌ها برای آموزش مدل‌های خود متهم شده است. در دسامبر ۲۰۲۳، نیویورک تایمز از OpenAI شکایت کرد و مدعی شد که استفاده این شرکت از داده‌هایش تحت مفهوم “استفاده منصفانه” قرار نمی‌گیرد. رسانه‌های دیگر نیز شکایت‌های مشابهی را مطرح کردند.

در نهایت، اگرچه OpenAI خود با چنین اتهاماتی مواجه بوده، این مسئله نمی‌تواند رفتار دیپ‌سیک را توجیه کند. OpenAI قوانین روشنی برای ممنوعیت استفاده رقابتی از مدل‌هایش دارد. با این حال، مطرح کردن این اتهام از سوی شرکتی که خود متهم به نقض حقوق داده است، قابل تأمل به نظر می‌رسد. به نظر می‌رسد که این پرونده همچنان در دست بررسی است و باید منتظر نتایج نهایی آن باشیم.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید