گوگل می‌گوید جِمینای را کپی می‌کنند!

کافی است یک‌بار پای حرف‌های گوگل درباره «سرقت مدل‌های هوش مصنوعی» بنشینید تا همان سؤال قدیمی مثل خوره به جان‌تان بیفتد: وقتی نوبت به دیگران می‌رسد، «داده» نعمت رایگان اینترنت است؛ اما وقتی کسی به تکنولوژی خود گوگل نزدیک می‌شود، ناگهان همه‌چیز اسمش می‌شود مالکیت فکری و نقض قوانین.

گوگل سال‌هاست (مثل خیلی از رقبای بزرگش در میدان هوش مصنوعی) با حجم عظیمی از محتواهای آنلاین کار کرده تا مدل‌های هوش مصنوعی Gemini را آموزش دهد؛ محتواهایی که بسیاری از آن‌ها بدون اجازه صاحبان اثر جمع‌آوری شده‌اند و همین رویکرد، پرونده‌های متعدد شکایت حق نشر را هم پشت سرش کشانده است. حالا اما ورق برگشته: گوگل این هفته ادعا کرده گروه‌هایی با انگیزه تجاری تلاش می‌کنند جِمینای را «کلون» کنند.

داستان از یک گزارش در روز پنج‌شنبه شروع شد؛ جایی که گوگل از چیزی به نام «حملات تقطیر» یا distillation attacks گفت. تصویرش ساده‌تر از اصطلاحش است: مهاجم با پرسش‌های پرتعداد و هدفمند، خروجی‌های مدل را جمع می‌کند تا به منطق و توانایی‌های مدل اصلی نزدیک شود؛ چیزی شبیه همان کپی کردن مشق، فقط در مقیاس صنعتی. به گفته گوگل، برخی عامل‌ها تا ۱۰۰ هزار بار جِمینای را کوئری کرده‌اند تا از دل پاسخ‌ها، «مدل زیرین» را بیرون بکشند.

گوگل این رفتار را «روشی برای سرقت مالکیت فکری» دانسته که شرایط استفاده از سرویس را نقض می‌کند. و همین‌جا تناقض، توی چشم می‌زند. وقتی پای اسکرپ کردن اینترنت برای آموزش مدل وسط باشد، قصه اغلب با واژه‌های مبهم و خاکستری روایت می‌شود؛ اما وقتی خروجی همان مدل‌ها سوژه استخراج و تقلید شود، لحن ناگهان قاطع و حقوقی می‌شود.

گوگل درباره این‌که دقیقاً چه کسانی را مقصر می‌داند، با احتیاط حرف زده و فقط به «نهادهای بخش خصوصی» و «پژوهشگرانی که دنبال کپی کردن منطق اختصاصی هستند» اشاره کرده است. همین ابهام هم به گمانه‌زنی‌ها دامن می‌زند؛ چون در اکوسیستمی که سرعت رشدش سرسام‌آور است، مرز بین پژوهش، مهندسی معکوس، و رقابت تجاری هر روز باریک‌تر می‌شود.

اما دلیل حساسیت گوگل قابل حدس است: پولِ هنگفتی که در این بازی می‌سوزد. شرکت‌ها ده‌ها میلیارد دلار خرج زیرساخت هوش مصنوعی می‌کنند تا مدل‌ها قوی‌تر شوند؛ از دیتاسنتر و GPU گرفته تا تیم‌های تحقیقاتی و قراردادهای داده. وقتی این همه سرمایه‌گذاری انجام شده، طبیعی است که از دست دادن «لبه رقابتی» مثل کابوس باشد؛ مخصوصاً حالا که خروجی مدل‌های پیشرو، روزبه‌روز شبیه‌تر می‌شود و تشخیص این‌که کدام پاسخ از کدام مدل آمده، گاهی به حد حدس و گمان می‌رسد. در چنین شرایطی، هر روشی که بتواند با هزینه کمتر به کیفیت نزدیک برسد، تهدید محسوب می‌شود.

این جنجال هم نخستین باری نیست که «تقطیر مدل» صنعت را به هم می‌ریزد. اوایل ۲۰۲۵، استارتاپ چینی DeepSeek با نمایش یک مدل ارزان‌تر و کارآمدتر، سیلیکون‌ولی را تکان داد. همان موقع، OpenAI تلویحاً گفت ممکن است DeepSeek با تقطیر مدل‌ها، شرایط استفاده را نقض کرده باشد. واکنش اینترنت؟ تمسخر گسترده و برچسب ریاکاری؛ چون منتقدان یادآوری کردند خودِ OpenAI هم سال‌ها به استفاده فراگیر از آثار دیگران برای آموزش مدل‌ها متهم بوده است.

حالا به نظر می‌رسد گوگل در همان چرخه تکرارشونده افتاده: تا وقتی «گرفتن» از وب برای آموزش است، روایت پیچیده و توجیه‌پذیر می‌شود؛ اما وقتی «گرفتن» به سمت خودِ مدل برگردد، اسمش سرقت است. و احتمالاً این آخرین بار هم نیست که چنین تیترهایی می‌بینیم، چون مسیر کسب‌وکار هوش مصنوعی دقیقاً به سمت جایی می‌رود که تقلید و همگرایی، وسوسه‌انگیزتر از نوآوری پرهزینه است.

جان هالتکویست، تحلیل‌گر ارشد گروه اطلاعات تهدید گوگل، به NBC News گفته گوگل «قناری معدن» خواهد بود؛ یعنی اولین شرکتی که موج بزرگ‌تری از این رخدادها را تجربه می‌کند. جمله‌ای که هم هشدار است و هم اعتراف: وقتی مدل‌ها به شکل عمومی و از طریق API در دسترس‌اند، سطح حمله تغییر می‌کند. دیگر لازم نیست مهاجم مثل گذشته با نفوذ کلاسیک به شبکه‌ها، اسناد و اسرار تجاری را بدزدد؛ گاهی همان دسترسی قانونی به API کافی است تا با طراحی پرسش‌ها، بخشی از قابلیت‌ها «کپی» شود.

در گزارش گوگل حتی یک نمونه هم آمده: مهاجمان با بیش از ۱۰۰ هزار پرامپت، ظاهراً دنبال این بوده‌اند که توان استدلال جِمینای را در زبان‌های غیرانگلیسی و روی طیف متنوعی از وظایف بازتولید کنند. گوگل می‌گوید سیستم‌هایش این حمله را همان لحظه تشخیص داده و ریسک را پایین آورده‌اند. خوب است؛ اما سؤال سخت‌تر باقی می‌ماند: اگر تقلید از طریق استفاده مشروع از سرویس ممکن باشد، مرز دفاع کجاست؟

این ماجرا درست در زمانی رخ می‌دهد که شرکت‌های هوش مصنوعی به‌دنبال پول‌درآوردن از این فناوری‌اند؛ از اشتراک‌های گران‌قیمت گرفته تا تبلیغات و قراردادهای سازمانی. وقتی هزینه ورود پایین‌تر بیاید و «راه میان‌بُر» جواب بدهد، بعید نیست بازیگران کوچک‌تر ناگهان از راه برسند و بخشی از بازار را بگیرند؛ چیزی شبیه همان شوکی که DeepSeek در ۲۰۲۵ وارد کرد. شاید مسئله اصلی این نباشد که چه کسی از چه کسی کپی می‌کند؛ مسئله این است که صنعت هنوز روی یک معیار منصفانه برای مالکیت، استفاده و جبران حق مؤلف به توافق نرسیده—و تا آن روز، جنگ بر سر «تقطیر» تازه گرم‌تر می‌شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید