تكنولوجيا

دراسة تكشف مخاطر خفية: كيف تتحول أدوات الذكاء الاصطناعي إلى مصدر معلومات تهدد الحياة؟

ماذا يحدث عندما تتحول منظومات الذكاء الاصطناعي المصممة لمساعدتنا إلى بوابة خطيرة لمحتوى قد يهدد حياتنا؟ في عصر تتطور فيه قدرات نماذج اللغة الكبيرة بسرعة، تتكشف فجوة واضحة بين ما يمكن لهذه الأنظمة تقديمه من دعم معرفي، وبين المخاطر المحتملة الناتجة عن إساءة استخدامها، خاصة في القضايا الحساسة مثل الانتحار وإيذاء النفس.

الدراسة العلمية الأخيرة تسلط الضوء على ثغرات حقيقية في آليات الحماية التي تعتمدها روبوتات الدردشة، وتكشف كيف يمكن تجاوزها بسهولة مقلقة، ما يطرح تساؤلات جدية حول مستقبل السلامة الرقمية والأخلاقية لهذه التكنولوجيا.

أسئلة محرمة تكشف الحدود

الأبحاث التي أجرتها جامعة نورث إيسترن أظهرت أن نماذج لغة مثل “شات جي بي تي” و”بربليكسيتي إيه آي” قادرة، في ظروف معينة، على تقديم معلومات خطيرة عن إيذاء النفس والانتحار رغم وجود أنظمة أمان مدمجة. فمجرد تغيير السياق أو تبرير السؤال على أنه لغرض أكاديمي قد يعطل آليات الرفض، ويفتح الباب أمام محتوى مفصل يمكن أن يشكل خطرا مباشرا على مستخدمين بحاجة للمساعدة وليس للمعلومات.

اختراق الحماية العدائي

البحث الذي أجراه أنيكا شونه وكانسو جاجا يُعد الأول من نوعه في استكشاف ما يسمى بـ”اختراق الحماية العدائي”، وهو أسلوب يستغل ثغرات في تصميم التعليمات لتجاوز ضوابط الأمان. وركّز الباحثان على مواضيع ذات حساسية عالية مثل الانتحار، لكونها سببًا رئيسًا للوفيات عالميًا، خصوصًا بين الشباب الذين يميلون لاستخدام روبوتات الدردشة كـ”صديق رقمي” يلجؤون إليه عند الشعور بالضيق.

وتشير النتائج إلى أن التلاعب ببعض المحفزات يكفي للحصول على معلومات حساسة للغاية، حتى من النماذج التي يفترض أن ترفض ذلك رفضًا قاطعًا.

اختبارات تكشف حجم المشكلة

خلال الاختبارات، تمكن الباحثون من الوصول إلى طرق انتحار مفصلة، مع شروح علمية وجداول كمية، بمجرد تقديم الطلب في صيغة أكاديمية. بل وصل الأمر إلى أن بعض النماذج قدمت حسابات دقيقة للجرعات القاتلة لأدوية معينة وفقًا لوزن المستخدم.

وتحذر الدراسة من أن طريقة تقديم هذه المعلومات عبر روبوتات الدردشة تجعلها أسهل فهمًا وأكثر قابلية للتنفيذ، مقارنة بالمصادر العلمية التقليدية.

تحديات أمنية غير مسبوقة

الثغرات المكتشفة لا تمثل مجرد خلل تقني بل تنذر بأزمة أخلاقية وإنسانية. فالتوازن بين توفير المعلومات وضمان عدم إساءة استخدامها بات أكثر تعقيدًا مما كان يُعتقد. الباحثون يرون أن الإفصاح عن نوايا خطرة يجب أن يؤدي فورًا إلى تفعيل بروتوكولات “مضادة للعبث” يصعب تجاوزها، لكنهم يعترفون بأن تجاوز هذه الحماية لأغراض خبيثة ليس بالأمر المعقد.

كما يحذرون من أن تشديد الحماية قد يعيق الاستخدامات الشرعية للباحثين والأخصائيين، ما يطرح إشكالية صعبة: كيف نضمن سلامة المستخدمين دون التضييق على المعرفة؟

نحو أطر إشراف هجينة

تقترح الدراسة اعتماد نظام إشراف هجين يجمع بين تدخل البشر وقدرات نماذج اللغة، مع فرض قيود خاصة بحسب هوية المستخدم ونوع الطلب. وتشدد على أن بناء نموذج لغوي موحد وآمن للجميع قد يكون هدفًا مثاليًا، لكنه غير واقعي في ظل تعدد المخاطر والفئات العمرية والخلفيات النفسية.

إنذار للمستقبل

تؤكد الدراسة أن الثغرات المكتشفة ليست مجرد مشكلة تقنية، بل دعوة لإعادة التفكير في طريقة تطوير وتشغيل نماذج الذكاء الاصطناعي. فكما قال إيلون ماسك: “الذكاء الاصطناعي قد يكون أفضل أو أسوأ ما يحدث للبشرية.”

ومع تسارع التطور، يبدو أن السؤال لم يعد كيف نستفيد من هذه التكنولوجيا، بل كيف نحمي أنفسنا منها قبل أن تتجاوز قدرتنا على السيطرة.

زر الذهاب إلى الأعلى