تقنية

يخبر Grok مستخدمي X بعدم الراحة عن “الإبادة الجماعية البيضاء” في جنوب إفريقيا


يبدو أن Elon Musk من AI chatbot Grok يعاني من خطأ يوم الأربعاء الذي تسبب في الرد على عشرات المنشورات على X مع معلومات حول “الإبادة الجماعية البيضاء” في جنوب إفريقيا ، حتى عندما لم يسأل المستخدم أي شيء عن الموضوع.

تنبع الاستجابات الغريبة من حساب X لـ Grok ، والذي يرد على المستخدمين الذين تم إنشاؤهم بواسطة AI كلما علامات المستخدم @Grok. عندما سئل عن الموضوعات غير ذات الصلة ، أخبر Grok المستخدمين مرارًا وتكرارًا عن “الإبادة الجماعية البيضاء” ، وكذلك الهتاف المضاد للفرنوديس “قتل البوير”.

إن الردود الغريبة غير ذات الصلة هي تذكير بأن AI chatbots لا تزال تقنية ناشئة ، وقد لا تكون دائمًا مصدرًا موثوقًا للمعلومات. في الأشهر الأخيرة ، كافح مقدمو النماذج من الذكاء الاصطناعى من أجل تعديل ردود chatbots الخاصة بهم ، والتي أدت إلى سلوكيات غريبة.

أُجبرت Openai مؤخرًا على تراجع تحديث إلى ChatGPT الذي تسبب في أن يكون chatbot من الذكاء الاصطناعي sycophanty بشكل مفرط. وفي الوقت نفسه ، واجهت Google مشاكل في رفض chatbot Gemini الإجابة ، أو إعطاء المعلومات الخاطئة ، حول الموضوعات السياسية.

في أحد الأمثلة على سوء سلوك Grok ، سأل أحد المستخدمين Grok عن راتب لاعب البيسبول المحترف ، ورد Grok على أن “مطالبة” الإبادة الجماعية البيضاء “في جنوب إفريقيا تتم مناقشتها”.

نشر العديد من المستخدمين على X حول تفاعلاتهم المربكة والغريبة مع Grok AI chatbot يوم الأربعاء.

من غير الواضح في هذا الوقت ما هو سبب إجابات Grok الغريبة ، ولكن تم التلاعب في chatbots من Xai في الماضي.

في فبراير / شباط ، بدا أن Grok 3 قد خضعت للرقابة لفترة وجيزة على الإشارات غير المتوفرة لإيلون موسك ودونالد ترامب. في ذلك الوقت ، بدا أن قيادة Xai Engineering Igor Babuschkin تؤكد أن Grok تم توجيه تعليمات إليه لفترة وجيزة ، على الرغم من أن الشركة عكست بسرعة التعليم بعد أن لفتت رد الفعل العكسي اهتمامًا أكبر.

مهما كان سبب الخطأ ، يبدو أن Grok يستجيب بشكل طبيعي للمستخدمين الآن. لم يرد متحدث باسم XAI على الفور على طلب TechCrunch للتعليق.



اترك رد

زر الذهاب إلى الأعلى