گزارش تازهای نشان میدهد که Grokipedia، دانشنامهای که توسط هوشمصنوعی Grok از شرکت xAI ساخته میشود، فقط منبع فرعی برای ChatGPT نیست و حالا در پاسخهای دیگر چتباتهای بزرگ مانند Gemini گوگل، AI Overviews، AI Mode، مایکروسافت Copilot و حتی Perplexity نیز دیده میشود. این افزایش استناد، بحثهای جدی درباره اعتبار و بیطرفی این منبع برانگیخته است.
چه اتفاقی افتاده و کدام ابزارها Grokipedia را نقل میکنند؟
طبق دادههای شرکتهای تحلیلی مانند Ahrefs، Profound و Semrush، Grokipedia از زمان راهاندازی در اواخر اکتبر بهتدریج در پاسخهای تولیدشده توسط مدلهای زبانی جای خود را پیدا کرده است. این پلتفرم هنوز در مقایسه با ویکیپدیا منبع کوچکی بهشمار میرود، اما در صدها هزار پاسخ ChatGPT و هزاران پاسخ ابزارهایی مانند Gemini، AI Overviews و Copilot به آن استناد شده است. تحلیلها نشان میدهد که سهم استنادها به Grokipedia گرچه کم است، اما روندی رو به رشد دارد.
برخی کارشناسان میگویند Grokipedia عمدتاً برای پرسشهای حاشیهای، اصطلاحات خاص یا موضوعات بسیار جزئی به کار میرود. در محصولات گوگل، این منبع معمولاً کنار منابع دیگر آورده میشود و بیشتر نقش تکمیلی دارد؛ اما در بعضی پاسخهای ChatGPT، به Grokipedia وزن بیشتری داده شده و گاهی در ردیف نخست منابع دیده میشود. گزارشهای کاربری نیز حاکی از آن است که چتباتهایی مانند Claude هم در مواردی به این دانشنامه استناد کردهاند.
چرا Grokipedia تا این حد بحثبرانگیز است؟
برخلاف ویکیپدیا که با مشارکت داوطلبان و فرایندی نسبتاً شفاف و انسانی ویرایش میشود، Grokipedia اساساً محتوایی تولیدشده توسط یک مدل زبانی است و ویرایش آن نیز تا حد زیادی خودکار و زیرنظر همان سیستم انجام میشود. بررسیها نشان داده که بخشی از مقالات، نسخههای کپیشده از ویکیپدیا هستند، اما در بسیاری از مدخلها سوگیریهای ایدئولوژیک، محتوای نژادپرستانه یا ترنسستیز و روایتهای مطلوب برای الون ماسک و حامیان او دیده میشود. همین ساختار باعث میشود Grokipedia نسبت به دستکاری داده و «سمپاشی اطلاعاتی» بسیار آسیبپذیر باشد.
کارشناسانی که با The Verge گفتگو کردهاند هشدار میدهند که تکیه حتی محدود بر چنین منبعی در پاسخهای هوشمصنوعی میتواند به تقویت خطاها، تعصبها و روایتهای سیاسی منجر شود؛ بهخصوص وقتی کاربر بهدلیل روان و قانعکننده بودن متن، بهاشتباه آن را معادل «قابل اعتماد بودن» تلقی کند. برای کاربران ایرانی که روزبهروز بیشتر به چتباتها و ابزارهای تولید محتوا متکی میشوند — چه از طریق استفاده مستقیم یا با خرید اکانت ChatGPT و سایر اکانتهای هوشمصنوعی — آگاهی از منابع پشتصحنه این پاسخها و محدودیتهای آنها اهمیت زیادی دارد.
شرکتهایی مانند OpenAI و Perplexity در پاسخ به این نگرانیها تأکید کردهاند که تلاش میکنند از طیفی از منابع عمومی استفاده کنند، فیلترهای ایمنی برای حذف محتوای پرخطر بهکار بگیرند و امکان مشاهده منابع را در اختیار کاربر بگذارند تا خود درباره اعتبار آنها قضاوت کند. با این حال، منتقدان میگویند منبعی که ذاتاً هوشمصنوعیمحور و فاقد نظارت انسانی شفاف است، حتی اگر کمتعداد هم استناد شود، نمیتواند لایه مرجع قابل اتکایی برای سیستمهای هوشمصنوعی در مقیاس وسیع باشد.
منبع خبر: The Verge




