- الشركة تفضل إضافة علامات وعناصر سياقية للمحتوى المعدل بالذكاء الاصطناعي بدلاً من إزالته، مع استمرار إزالة المحتوى المخالف لقواعدها.
- تنامي برمجيات الذكاء الاصطناعي التوليدي يثير مخاوف من استخدامها في التضليل وتزوير الحقائق، خاصة في ظل الاستحقاقات الانتخابية الكبرى وانتشار المحتويات المسيئة.
تعتزم شركة ميتا الأميركية العملاقة وضع تصنيف خاص للتعرف إلى الأصوات والصور ومقاطع الفيديو الناتجة من الذكاء الاصطناعي على شبكاتها الاجتماعية اعتباراً من مايو/أيار المقبل، وفق رسالة نُشرت عبر مدونتها الجمعة.
وقالت نائبة الرئيس المسؤولة عن سياسات المحتوى في الشركة الأم لـ"فيسبوك" و"إنستغرام" و"واتساب" و"ثريدز"، مونيكا بيكرت: "نخطط للبدء بتصنيف المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي في مايو/أيار 2024". ولفتت بيكرت إلى أن علامة "Made with AI" (صُنع باستخدام الذكاء الاصطناعي) ستوضع "على عدد أكبر من محتويات الفيديو والصوت والصور" مقارنة بالسابق.
وأشارت إلى أن "ميتا" ستضع هذه العلامات على منصاتها عند رصد "مؤشرات إلى صور بالذكاء الاصطناعي بما يتوافق مع المعايير المعمول بها في القطاع"، أو إذا ما "أشار أشخاص إلى أنهم يحمّلون محتوى أنشئ بواسطة الذكاء الاصطناعي".
وأعلنت المجموعة الأميركية أنها ستغيّر الطريقة التي تعالج بها المحتوى المعدل بواسطة الذكاء الاصطناعي، وذلك بعد التشاور مع مجلسها الإشرافي، ورأت أن "الشفافية وإضافة عناصر أكثر لتوضيح السياق أصبحتا تشكّلان أفضل طريقة لمعالجة المحتوى الخاضع للتلاعب، من أجل تجنب مخاطر وضع قيود لا طائل منها على حرية التعبير".
وباتت "ميتا" تفضّل إضافة "علامات وعناصر من السياق" إلى هذا النوع من المحتوى، بدلاً من إزالته كما تفعل الآن. ومع ذلك، أوضحت "ميتا" أنها ستواصل إزالة أي محتوى من منصاتها، سواء أنشئ بواسطة الإنسان أو الذكاء الاصطناعي، إذا ما كان يتعارض مع قواعدها "ضد التدخل في العملية الانتخابية أو التخويف أو المضايقة أو العنف (...) أو أي سياسة أخرى مدرجة في معايير مجتمعنا".
وتعتمد الشركة أيضاً على شبكتها المكونة من "نحو مائة مدقق حقائق مستقل" لتحديد المحتوى "الخاطئ أو المضلل" الذي ينتجه الذكاء الاصطناعي.
وكانت "ميتا" أعلنت، في فبراير/شباط الماضي، رغبتها في تصنيف أي صورة تنشئ بواسطة الذكاء الاصطناعي، وهو قرار اتُّخذ على خلفية الحرب ضد المعلومات المضللة. وقد تعهدت شركات تكنولوجيا عملاقة أخرى، مثل "مايكروسوفت" و"غوغل" و"أوبن إيه آي"، باتخاذ إجراءات مماثلة.
أثار تنامي برمجيات الذكاء الاصطناعي التوليدي مخاوف من استخدام هذه الأدوات لزرع الفوضى السياسية، خصوصاً من خلال التضليل أو تزوير الحقائق، ولا سيما في هذا العام الذي يشهد سلسلة استحقاقات انتخابية كبرى، أبرزها الانتخابات الرئاسية في الولايات المتحدة.
وبعيداً عن عمليات الانتخاب هذه، فإن تطوير برامج الذكاء الاصطناعي التوليدية يترافق مع سيل من المحتويات المسيئة، وفق الكثير من الخبراء والهيئات الناظمة، بما يشمل تركيب صور ومقاطع إباحية ملفقة لنساء شهيرات بتقنية "التزييف العميق"، وهي ظاهرة تستهدف أيضاً الأشخاص العاديين.
(فرانس برس)