تقرير يكشف أزمة ثقة داخل قطاع الذكاء الاصطناعي وتحذيرات من العاملين باستخدامه

كشف تقرير نشرته صحيفة “غارديان” البريطانية عن حالة متزايدة من انعدام الثقة لدى العاملين في مجال الذكاء الاصطناعي تجاه النماذج التي يقومون بتقييم مخرجاتها، مشيرًا إلى أن عددًا منهم يحذرون أفراد أسرهم وأصدقاءهم من استخدام هذه الأدوات بسبب ما يلمسونه من أخطاء وتحيزات خطيرة.
ويعود هذا القلق، بحسب التقرير، إلى اطلاع هؤلاء العاملين على آليات تقييم نتائج الذكاء الاصطناعي وطبيعة المخرجات الأولية التي تصل إلى المستخدمين، إذ يعمل معظم المشاركين في مراجعة وتدقيق الردود والمعلومات التي تنتجها النماذج الذكية قبل إتاحتها للعامة.
وتقول كريستا باولوسكي، في حديثها لـ“غارديان”، إنها كادت تمرر ردًا صادرًا عن نموذج ذكاء اصطناعي دون أن تنتبه إلى احتوائه على مضمون عنصري، مضيفة أن هذه التجربة جعلتها تتساءل عن عدد المرات التي مرت فيها تعليقات أو معلومات مضللة دون أن يتم اكتشافها.
وتعمل باولوسكي ضمن فئة العمالة غير المنتظمة عبر منصة “أمازون ميكانيكال تورك”، وهي منصة تتيح لشركات الذكاء الاصطناعي الاستعانة بأفراد لتقييم ومراجعة البيانات والمخرجات الناتجة عن النماذج.
في المقابل، تؤكد شركة “أمازون” أن منصة “ميكانيكال تورك” ليست سوى سوق مفتوحة للوظائف، ولا ترتبط بشكل مباشر بالاختبارات أو المهام التي تُدار من خلالها، ولا تتحمل مسؤولية طبيعة الأعمال التي تُنفذ عبرها.
ويشير التقرير إلى أن الوضع لا يختلف كثيرًا لدى شركة “غوغل”، إذ نقل عن أحد الموظفين المسؤولين عن مراجعة ردود الذكاء الاصطناعي، أن تقييم الردود الصحية على وجه الخصوص يتم أحيانًا دون مراجعة نقدية دقيقة، ما يثير مخاوف بشأن دقة المعلومات المقدمة للمستخدمين.
وتؤكد بروك هانسن، وهي إحدى العاملات في “أمازون ميكانيال تورك”، أن الثقة في نماذج الذكاء الاصطناعي تكاد تكون معدومة بين المراجعين، مشيرة إلى أن الشركات المطورة لا تستثمر بشكل كافٍ في تدريبهم، وتفرض عليهم في الوقت ذاته إنجاز عدد كبير من المهام خلال فترات زمنية قصيرة.
كما نقل التقرير عن أحد العاملين في “غوغل” قوله إن نماذج الذكاء الاصطناعي تعكس التحيزات والعنصرية الموجودة في البيانات التي دُرّبت عليها، موضحًا أن أحد النماذج رفض الإجابة عن سؤال يتعلق بتاريخ الفلسطينيين، في حين قدم إجابات مطولة عند سؤاله عن تاريخ إسرائيل.
وأضاف الموظف نفسه أنه يرفض استخدام تقنيات الذكاء الاصطناعي وروبوتات الدردشة، وقد حذر أصدقاءه وأفراد عائلته من الاعتماد عليها أو حتى شراء هواتف جديدة تعتمد بشكل كبير على هذه التقنيات.
وتعكس هذه الشهادات، بحسب التقرير، أزمة حقيقية داخل قطاع الذكاء الاصطناعي تتعلق بجودة البيانات المستخدمة في تدريب النماذج، إذ تركّز الشركات على جمع أكبر قدر ممكن من البيانات، في مقابل إهمال التدقيق في نوعيتها ومدى خلوها من التحيز والأخطاء.









