وكان "غوغل" قد اقترح تلقائياً كلمة "أشرار"، عند البحث عن اليهود والنساء، وكلمة "سيئون" عند البحث عن المسلمين، وفقاً لموقع صحيفة "ذا غارديان" البريطانية.
وتوقف المحرك عن اقتراح هذه الاحتمالات عند البحث عبره عن اليهود والنساء، أمس الإثنين، لكن اقتراح "المسلمون سيئون" لا يزال موجوداً.
وقال متحدث باسم "غوغل": "تصرفنا على الفور عندما أبلغنا بالأمر يوم الجمعة الفائت"، ولم تعلق الشركة عن سبب تعديلها للاقتراحات المتعلقة بالنساء واليهود، من دون تعديل اقتراحاتها عن المسلمين.
وأفادت الشركة أن "نتائج البحث عبر محركنا تعكس المحتوى الموجود على شبكة الإنترنت، ما يعني ظهور نتائج غير مرغوبة أحياناً، عند البحث حول مواضيع حساسة"، ومشيرة إلى أن "هذه النتائج لا تعكس آراء غوغل أو معتقداتها، فنحن نقدر بشدة التنوع في وجهات النظر والثقافات والآراء".
وأضافت أن "التوقعات التلقائية تظهر عبر الخوارزميات، بناءً على نشاط المستخدم على محرك البحث"، وتابعت: "نحاول أقصى ما بوسعنا لمنع ظهور النتائج المهينة، مثل المحتوى الإباحي أو خطاب الكراهية، لكننا نقرّ بأن الاقتراحات التلقائية ليست علماً دقيقاً، ونحن نعمل دائماً على تحسين الخوارزميات الخاصة به".
وتجدر الإشارة إلى أن هذه ليست المرة الأولى التي سببت نتائج اقتراحات "غوغل" إهانة لفئات معينة. إذ وسم المحرك صورة لشابين من العرق الأسود بكلمة "غوريلا"، في يوليو/تموز عام 2015. واعتذرت الشركة حينها، قائلةً إنها تعمل على إيجاد إصلاحات صالحة على المدى الطويل.
واعتذرت مجدداً في مايو/أيار عام 2015، بعد أن ظهر ضمن اقتراحاتها التلقائية، عند البحث عن البيت الأبيض على "خرائط غوغل"، عبارتي "بيت الزنوج" و"ملك الزنوج".
وانتُقدت في إبريل/نيسان الماضي، بسبب تقديمها صوراً لنساء من العرق الأسود، عند البحث عن "تسريحات شعر غير مناسبة للعمل"، مقابل صور لنساء من العرق الأبيض، عند البحث عن "تسريحات الشعر المهنية". واعتذرت "غوغل" حينها. وفي يونيو/حزيران الماضي، واجهت حملة انتقادات، إذ أظهرت صوراً لمجرمين عند البحث عن "مراهقين سود"، ولم يظهر الأمر نفسه، عند البحث عن "المراهقين البيض".
(العربي الجديد)