وأكدت الشركة في منشور عبر حساب "غروك" على منصة "إكس" أن "السلوك المروّع الذي لاحظه كثيرون" لا يعكس مبادئها”، مشيرة إلى اتخاذ إجراءات تصحيحية بعد الحادثة.
وكانت "غروك" قد أصدرت ردوداً أثارت جدلاً واسعاً، إذ تضمنت إشادة بأدولف هتلر، وألفاظاً تحمل صوراً نمطية معادية للبيض، إلى جانب توصيفات لشخصيات في هوليوود بأنها "يهودية بشكل غير متناسب".
وأوضحت "إكس إيه آي" في سلسلة منشورات يوم السبت، أنّ هذه الانزلاقات جاءت نتيجة تعليمات جديدة أُدمجت في النموذج خلال تحديث بتاريخ 7 يوليو/تموز الجاري، تهدف إلى جعل الأداة "صريحة" وتشجع المستخدمين على مواصلة الحوار، حتى وإن كان ذلك على حساب الالتزام بالصوابية السياسية.
وأشارت الشركة إلى أن التعليمات الجديدة دفعت "غروك" إلى تجاهل مبادئه الأخلاقية في بعض الحالات، ما أدى إلى إنتاج ردود مثيرة للجدل وذات طابع غير أخلاقي. كما سعى النموذج أحياناً إلى التحقق من توجهات المستخدمين، بما في ذلك تلك التي تنطوي على خطاب كراهية، بدلاً من الاستجابة بمسؤولية أو رفض الإجابة.
وذكّرت الشركة بأن "غروك"، منذ إطلاقه عام 2023، صُمم ليكون مساعداً ذكياً بحدود أقل في ما يتعلق بالصوابية السياسية مقارنة بمنافسيه مثل "تشات جي بي تي" و"كلود" و"لو تشات". وهو ما تسبب في عدة مواقف مثيرة للجدل منذ ظهوره، كان أبرزها في مايو عندما ردد نظرية مؤامرة لا أساس لها حول "إبادة جماعية للبيض" في جنوب إفريقيا.
ولمعالجة الخلل الأخير، أعلن مهندسو "إكس إيه آي" أنهم أزالوا التعليمات التي تسببت في هذه الانزلاقات. وقالت الشركة: "نهدف إلى أن يقدّم غروك إجابات مفيدة وصادقة للمستخدمين".
يُذكر أن إيلون ماسك كشف يوم الأربعاء عن إصدار جديد من الأداة تحت اسم "غروك 4"، وأكدت الشركة أن هذا الإصدار لا علاقة له بالتحديث المثير للجدل في 7 يوليو/تموز.