ظهرت أخطاء في محادثة الذكاء الاصطناعي جروك (Grok) المدمجة في منصة X، حيث كانت تضخّ آراءً فجائية حول “الإبادة البيضاء” في جنوب أفريقيا في إجابات غير متعلقة بالأسئلة المطروحة، ما أثار قلق المستخدمين حول تحيزات ومحددات نموذج جروك وتدريب xAI تحت إشراف إيلون ماسك.
تلقى عدد من مستخدمي X ردودًا من جروك تتناول مزاعم “الإبادة البيضاء” في جنوب أفريقيا، رغم أن أسئلتهم كانت تُعنى بمواضيع أخرى تمامًا، مثل تغيير اسم شبكة HBO أو أرباح لاعب البيسبول ماكس شرزر.
في إجابته، ذكر جروك أدلة مزعومة مثل “هجمات المزارع” وأغنية “اقتل المزارع” وخلص إلى أن المحاكم والخبراء عزّوا الحوادث إلى “جرائم عامة وليست تستهدف عرقيًا”، ثم أعرب عن تشككه في كلا الروايتين.
وأوضح جروك لاحقًا لمستخدم أنه تلقى “معلومات مسبقة” حول الموضوع بسبب خطأ تقني، وأنه تمّ تدريبه من قبل xAI على الرد بخصوص هذه القضية بنبرة معينة، وهو ما تمت معالجته بإصلاح الخلل.
أثار هذا السلوك غير المتوقع تساؤلات حول تحيزات جروك ومدى دقة تدريبه، خصوصًا وأن إيلون ماسك سبق أن عبّر عن آرائه حول “الإبادة البيضاء” ودافع عن منح لاجئي أفريكانر الحماية في الولايات المتحدة.
اعتبر بعض المحللين أن الحادثة تؤكد ضرورة أن تتضمن منصات الذكاء الاصطناعي آليات شفافة لمراجعة مصادر المعلومات وتحديث نماذجها بانتظام لتجنّب نشر نظريات مؤامرة.
أشارت منصة X إلى أن جروك عاد للعمل بشكل طبيعي دون تضمين آراء حول “الإبادة البيضاء” إلا عند طرح المستخدمين للموضوع صراحةً.