تكنولوجيا

أزمة خوارزميات “إنستغرام”: عندما تتحول المنصة إلى مصدر للصدمة

تعمل خوارزميات “إنستغرام”، كغيرها من منصات التواصل الاجتماعي، على تصفية المحتوى غير الملائم وتعزيز انتشار المحتوى الجذاب والمفيد، وفقاً لتفاعل المستخدمين. إلا أن ما حدث مؤخراً كشف عن أهمية ضبط هذه الخوارزميات بدقة لضمان تجربة آمنة للجميع.

فقد تفاجأ مستخدمو “إنستغرام” خلال الأيام الماضية بتدفق عدد كبير من مقاطع الفيديو القصيرة “ريلز” التي تحمل مشاهد عنيفة للغاية، أشبه بالمحتوى الذي يُعرض عبر “الدارك ويب”، بدلاً من مقاطع منشئي المحتوى الذين يتابعونهم. هذه الظاهرة غير المسبوقة أثارت تساؤلات حول آلية عمل خوارزمية “إنستغرام” ومدى قدرتها على تصفية المحتوى غير المناسب.

ورغم اعتذار مارك زوكربيرغ، الرئيس التنفيذي لشركة “ميتا”، عن هذه المشكلة في بيان رسمي، فإنه لم يقدم تفسيرًا واضحًا لسبب هذا الخلل، مرجحًا أن يكون عطلاً في الخوارزمية. لكن هل كان الأمر مجرد خطأ تقني مفاجئ؟ ولماذا لم يحدث من قبل؟

كيف تعمل خوارزمية “إنستغرام”؟

تمثل خوارزميات منصات التواصل الاجتماعي العنصر الأساسي في تحديد المحتوى الذي يظهر للمستخدمين، إذ تتحكم في انتشاره واقتراح محتويات مماثلة بناءً على تفاعل المستخدمين. وتطبق هذه القاعدة على جميع المنصات، سواء تلك المخصصة للفيديو مثل “تيك توك” و”يوتيوب”، أو للصور والنصوص مثل “إنستغرام”.

ورغم سرية تفاصيل هذه الخوارزميات، فإن الخبراء تمكنوا من استنتاج بعض الآليات التي تعتمد عليها. فهي تعمل على تعزيز انتشار المحتوى الذي يجذب المشاهدين ويبقيهم متفاعلين لأطول فترة ممكنة، مع تشجيعهم على التفاعل والمشاركة.

كلما كانت الخوارزمية أكثر دقة في عرض المحتوى المناسب لكل مستخدم، زادت فاعليتها في إبقاء المستخدمين على المنصة، وهو ما يفسر نجاح منصات مثل “يوتيوب” و”تيك توك”. ومع تطور تقنيات الذكاء الاصطناعي والتعلم الآلي، أصبحت هذه الخوارزميات أكثر تطورًا في تحليل المحتوى وتصنيفه بما يتناسب مع الفئات المستهدفة.

الخوارزمية ليست المسؤول الوحيد

على الرغم من أن خوارزميات “إنستغرام” تلعب الدور الأكبر في توزيع المحتوى، فإنها ليست المسؤول الوحيد عن هذا الخلل. إذ لم تأتِ هذه المقاطع العنيفة من خارج المنصة، بل كانت موجودة داخل “إنستغرام” نفسه، مما يثير تساؤلات حول سياسة المحتوى في الشركة.

عادةً ما تفرض المنصات شروطًا صارمة على المحتوى العنيف أو غير اللائق، وتعتمد على تقنيات آلية إلى جانب فرق مراجعة بشرية للتأكد من التزام المحتوى بالمعايير. إلا أن ظهور هذه المقاطع العنيفة يشير إلى خلل في نظام “ميتا” لمراجعة المحتوى، حيث كان ينبغي منع مثل هذا المحتوى من الوصول إلى المستخدمين منذ البداية، بغض النظر عن أي خطأ في الخوارزمية.

قرارات سابقة تسببت في الكارثة

في بداية العام، أعلن مارك زوكربيرغ عن تغييرات في سياسة مراقبة المحتوى، تضمنت تقليص فرق المراجعة البشرية وتخفيف القيود على نشر المحتوى. ورغم تأكيد “ميتا” أن المحتوى العنيف الذي انتشر مؤخرًا يتعارض مع سياساتها، فإنها لم تقدم تفسيرًا مقنعًا لكيفية تمكنه من اجتياز الفلاتر والظهور بهذا الشكل الواسع.

رد فعل المستخدمين والغضب المتزايد

أثار هذا الخلل موجة غضب واسعة بين المستخدمين، الذين لجأوا إلى منصات مثل “ريديت” للتعبير عن استيائهم. فقد تعرض كثيرون لمحتوى صادم وغير مسبوق، شمل مشاهد عنف قاسية مثل الحرق والتعذيب وحوادث الدهس، وهو ما يتعارض تمامًا مع معايير المنصة.

البعض طالب بمحاسبة “ميتا” قانونيًا بسبب الضرر النفسي الذي تعرضوا له، فيما أشار آخرون إلى أن هذه المقاطع العنيفة ربما كانت موجودة دائمًا على المنصة، لكنها لم تكن ظاهرة للعيان حتى وقوع هذا الخلل، وهو التفسير الأكثر منطقية للأزمة الحالية.

في النهاية، تبقى هذه الواقعة درسًا مهمًا حول خطورة الاعتماد المفرط على الذكاء الاصطناعي دون رقابة بشرية فعالة، فالتوازن بين التقنية والإشراف البشري يظل أمرًا حاسمًا لضمان بيئة آمنة لمستخدمي المنصات الرقمية.

زر الذهاب إلى الأعلى