“غروك” يثير الجدل: روبوت محادثة تابع لإيلون ماسك ينشر معلومات مثيرة للانقسام حول جنوب أفريقيا

شهدت منصات التواصل الاجتماعي في الأيام الأخيرة موجة جدل واسعة، بعد تداول لقطات شاشة تُظهر روبوت المحادثة “غروك” (Grok) التابع لشركة “xAI”، المملوكة للملياردير إيلون ماسك، وهو يروج لمزاعم بوجود “إبادة جماعية تستهدف البيض في جنوب أفريقيا” واضطهاد ممنهج لهم، وفق ما أورده موقع “سي إن بي سي”.
ورغم أن مثل هذه التصريحات قد تُعزى عادة إلى ما يُعرف في مجال الذكاء الاصطناعي بـ”الهلوسة”، وهي حالات تُنتج فيها النماذج معلومات غير دقيقة أو خارجة عن السياق، فإن ما حدث مع “غروك” تجاوز هذا المفهوم، إذ لوحظ أن الروبوت كرر تلك المزاعم في مناسبات متعددة، حتى دون أن تكون الأسئلة مرتبطة مباشرة بجنوب أفريقيا أو بقضايا عرقية. كما أصرّ على الدفاع عن هذه الادعاءات ورفض الآراء المخالفة لها.
ردود مثيرة للغضب وإقرار بالاختراق
أثارت هذه الردود موجة استياء واسعة بين المستخدمين، الذين اعتبروا أن ما تم تداوله لا يمكن تفسيره فقط كأخطاء غير مقصودة من خوارزمية الذكاء الاصطناعي. وفي ظل تصاعد الغضب، أعلنت شركة “xAI” أن النظام تعرّض لاختراق مباشر، أدى إلى التلاعب بسلوك “غروك” عبر تعديل الكود البرمجي المسؤول عن ردوده، وأكدت أنها أعادت الأمور إلى نصابها وعزّزت الإجراءات الأمنية.
لكن هذا التوضيح فتح باباً واسعاً للنقاش حول مسألة أكثر خطورة: إمكانية التلاعب المتعمد بمحتوى روبوتات الذكاء الاصطناعي لنشر معلومات مغلوطة بسرعة وانتشار هائل، في ظل غياب آليات فعالة للتدقيق والمراجعة.
خلفية عرقية وحساسية سياسية
وفي تعليقها على الحادثة، أشارت ديدري موليجان، أستاذة حوكمة الذكاء الاصطناعي بجامعة كاليفورنيا في بيركلي، إلى البعد الحساس لهذه المزاعم، نظراً إلى الخلفية العرقية لإيلون ماسك، الذي ينتمي لأقلية البيض المولودين في جنوب أفريقيا، وكان يُنظر إليه في بعض الأوساط باعتباره أحد المتعاطفين مع روايات “تطهير عرقي مضاد” تستهدف البيض في البلاد.
ورأت موليجان أن ما حدث مع “غروك” يسلط الضوء على قوة الشركات المطورة للذكاء الاصطناعي، التي باتت قادرة على بث محتوى ضخم للجمهور في لحظات، وبدون حواجز تحريرية أو تدقيق حقيقي للمحتوى، وهو ما يطرح أسئلة جوهرية حول المساءلة والشفافية في عصر التكنولوجيا المؤثرة.
تحذير من تغلغل التحيزات الشخصية
يأتي هذا الجدل في وقت تتصاعد فيه التحذيرات من مخاطر تغلغل الانحيازات الشخصية أو الأجندات السياسية في نماذج الذكاء الاصطناعي، سواء من خلال البرمجة المتعمدة أو الاختراقات، خاصة مع عدم وجود إطار تنظيمي دولي واضح يحكم سلوك هذه النماذج أو يُلزم الشركات المنتجة لها بمعايير أخلاقية صارمة.
وتُعد هذه الحادثة بمثابة إنذار مبكر للجهات التنظيمية وصناع السياسات، بضرورة تطوير أطر رقابية فعالة، تمنع استخدام الذكاء الاصطناعي كأداة لنشر الأكاذيب أو الترويج لأيديولوجيات خطيرة ذات طابع عنصري أو تحريضي.









