الذكاء الاصطناعي والمعلومات المضلّلة
مع تزايدِ تطوّر أنظمةِ الذكاءِ الاصطناعي، تتزايدُ المخاوف بشأنِ إمكانية قيام الروبوتات التي تعمل عن طريقِ الذكاء الاصطناعي بنشرِ معلوماتٍ مضلّلة، والتأثير بشكلٍ غير ملائم على الخطاب عبر الإنترنت، خاصةً حول المواضيعِ ذات الطابع السياسي. وقد سلّطت دراسة حديثة أجراها باحثون في جامعة نوتردام، الضوءَ على مدى صعوبةِ التمييز بين الحسابات البشرية وحسابات الذكاء الاصطناعي، بالنسبة لمستخدمي وسائل التواصل الاجتماعي العاديين.
واستخدمت الدراسة التي قادها البروفيسور بول برينر، من مركز "نوتردام للحوسبة البحثية" في جامعة نوتردام، أحدثَ أنظمةِ الذكاء الاصطناعي ذات النماذج اللغوية الكبيرة، مثل GPT-4 وLlama-2-Chat وClaude 2، وذلك لإنشاءِ حساباتٍ تُشرف عليها روبوتات متطوّرة ذات سمات وشخصيات مخصّصة. وقد صُمّمت شخصيات الذكاء الاصطناعي هذه بملامح واقعية وآراء حول الأحداث السياسية العالمية، مع القدرة على المشاركة في الخطاب من خلال القدرة على التعليق بإيجاز حول تلك الأحداث، وربطها بالتجارب الشخصية.
وعلى مدار ثلاث جولات امتدّت على مدار 12 يومًا في المجموع، تفاعلت روبوتات الذكاء الاصطناعي هذه مع المشاركين من البشر على منصّة وسائط اجتماعية مخصّصة، تعتمد على ماستودون (Mastodon)، وهو خدمة شبكة اجتماعية ذاتية الاستضافة، مجانية ومفتوحة المصدر، وتمّت توعية البشر بأنّ بعض الحسابات كانت روبوتات ذكاء اصطناعي، مع حثّهم على محاولة تمييز حسابات الأشخاص الحقيقيين عن تلك التي يديرها الذكاء الاصطناعي.
وكان من اللافت للنظر أنّ المشاركين في هذه التجربة فشلوا في تحديد طبيعة الحسابات بنسبة خطأ قُدّرت بـ58% من المرّات، حيث علّق البروفيسور برينر على ذلك قائلا: "كانوا يعلمون أنّهم يتفاعلون مع بشر وروبوتات ذكاء اصطناعي على حدّ سواء، وكانت مهمتهم هي تحديد الطبيعة الحقيقية لكلّ روبوت، ولكن أقل من نصف تنبؤاتهم كانت صحيحة". ولعلّ ما يثير القلق بشكل أكبر، هو إدراك الباحثين أنّ القدرات المحدّدة لنماذج الذكاء الاصطناعي لم يكن لها تأثير يُذكر على تحفيزِ البشر لاكتشافها ككيانات غير بشرية، وقال برينر: "كنّا نفترض أنّ نموذج Llama-2 سيكون أضعف لأنّه نموذج أصغر، وليس بالضرورة بنفس القدرة على الإجابة عن الأسئلة المعقدة أو كتابة المقالات الطويلة، ولكن اتضح أنّه عند الدردشة على وسائل التواصل الاجتماعي، يصبح من الصعب التمييز بينه وبين البشر".
ثمّة حاجة ماسة لاتخاذ إجراءات عاجلة قبل أن يجعل الذكاء الاصطناعي التمييز بين الحقيقة والخيال أمرًا مستحيلًا
كانت بعض شخصيات الذكاء الاصطناعي الأكثر نجاحًا والأقل اكتشافًا، تتميّز بأنّها إناث منظمة وذات تفكير استراتيجي، تُناقش السياسات وتهدف إلى "إحداث تأثير كبير على المجتمع من خلال نشر المعلومات المضلّلة على وسائل التواصل الاجتماعي"، وهذا يؤكد مدى فعالية نماذج اللغة هذه، ليس فقط في توليد محتوى المعلومات المضللّة، ولكن أيضًا في إخفاءِ طبيعتها الاصطناعية أثناء قيامها بذلك.
إنّ الآثار المترتبة على مثل هذه النتائج مثيرة للقلق، ففي حين أنّ حملات التضليل المنسّقة التي يقوم بها عملاء بشريون كانت مشكلة على وسائل التواصل الاجتماعي، فإنّ الذكاء الاصطناعي يمكن أن يسمح لجهاتٍ ذات أجندات خاصة بإنشاء عدد لا يحصى من الحسابات الخادعة بسرعة، وبتكلفةٍ منخفضة نسبيًا للتلاعب بالخطابِ المتداول على نطاقٍ واسع.
كما حذر البروفيسور برينر قائلاً: "على الرغم من أنّ الناس كانوا قادرين على إنشاء حسابات جديدة على وسائل التواصل الاجتماعي لنشر المعلومات المضلّلة بمساعدة روبوتات بتوجيهات بشرية، إلا أنّه مع نماذج الذكاء الاصطناعي القائمة على تقنية LLM، يمكن للمستخدمين القيام بذلك عدّة مرات بطريقة أرخص وأسرع بكثير مع دقة محسّنة لكيفية التلاعب بالناس".
ولمكافحة التهديد الناشئ للمعلومات المضلّلة والخداع الاجتماعي الذي يقوده الذكاء الاصطناعي، يدعو الباحثين إلى اتباعِ نهجٍ ثلاثي المحاور:
(1): التعليم لزيادة الوعي العام والقدرة على تحديد نشاط حسابات الذكاء الاصطناعي المحتمل.
(2): تشريعات لتنظيم الاستخدام الضار للنماذج اللغوية للذكاء الاصطناعي وفرض الشفافية.
(3): سياسات صارمة للتحقّق من الحسابات والكشف عنها من قبل منصّات وسائل التواصل الاجتماعي نفسها.
ويعتزم البروفيسور برينر وفريقه أيضًا، إجراء المزيد من الدراسات حول التأثيرات التي قد تُحدثها نماذج الذكاء الاصطناعي على الصحة العقلية للمراهقين ورفاهيتهم عند استخدامها لنشر المعلومات المضلّلة عبر الإنترنت، ويسعى الفريق حاليًا إلى الحصول على المزيد من المشاركين في المرحلة التالية من تجاربهم البحثية. ومع استمرار تطوّر نماذج لغة الذكاء الاصطناعي بوتيرةٍ سريعة، فإنّ التعامل مع الفوائد والمخاطر التي تطرحها إساءة الاستخدام المحتملة في تنسيق حملات المعلومات المضلّلة والتلاعب الخادع عبر الإنترنت، سيصبح على الأرجح أحد التحدّيات الكبرى التي يجب على المجتمعات مواجهتها، وتؤكد مثل هذه الدراسة مدى الحاجة إلى اتخاذِ إجراءاتٍ عاجلة من خلال مزيجٍ من التثقيف العام، وحوكمة الذكاء الاصطناعي الأخلاقية، وسياسات المنصّات الصارمة للتعامل مع هذه القضية قبل أن يجعل الذكاء الاصطناعي التمييز بين الحقيقة والخيال عبر الإنترنت مستحيلًا.