التخطّي إلى المحتوى الرئيسي
مدوّنة

المنتجات - YouTube

التزامات YouTube العالمية

مجموعة من الرموز التي تعبر عن الفيديوهات وتحتها نصوصArticle's hero media

يلجأ مليارات الأشخاص حول العالم إلى YouTube للاطّلاع على مجموعة لا تُحصى من المحتوى والمواضيع المتنوّعة، مثل مشاهدة الحفلات الموسيقية النادرة أو تعلّم مهارات جديدة. وما كان كل ذلك ممكنًا لولا التزامنا الكبير بحماية منتدى مستخدمي YouTube؛ فنحن نضع هذا الالتزام على رأس أولوياتنا عند تطوير جميع أنظمتنا وكل جانب من جوانب منتجاتنا.

سنأخذكم في بضع جولات وراء الكواليس هذا العام للتعرّف على آلية عملنا في التعامل مع أكبر التحديات التي تواجه YouTube والنتائج المترتبة على كل إجراء نتّخذه. سننطرّق في هذه الجولات إلى مواضيع مختلفة مثل آلية تطوير سياساتنا، والمشاكل الشائكة التي نواجهها وكيفية معالجتنا لها، أو قد نتحّدث بشكل عام عن أهم التزاماتنا ومسؤولياتنا تجاه منتدى YouTube. أمّا في هذه الجولة الأولى، سنشرح بمزيد من التفاصيل عن جهودنا المستمرة للحد من المعلومات الخاطئة على YouTube والمحتمل أن تسبّب ضررًا للمستخدمين.

تركّزت جهودنا خلال السنوات الخمسة الأخيرة على الاستثمار في المبادئ الأربعة الأساسية على YouTube والتي نطلق عليها اسم 4Rs of Responsibility. تتمحور هذه المبادئ حول الاستعانة بتقنيات تعلّم الآلة وفريق من الخبراء المتمرّسين لإزالة المحتوى المخالف لإرشادات المنتدى في أسرع وقت ممكن وإبراز المصادر الموثوقة والحد من انتشار المحتوى الذي على وشك انتهاك سياساتنا فيه. وكان للجمع بين هذه الكفاءات البشرية والتقنية دورٌ محوريٌ في خفض عدد مشاهدات المحتوى السيء، بدون التعرّض لحرية التعبير على منصتنا. ومع ذلك، لا يزال هذا النهج الذي نتّبعه بحاجة إلى مزيد من التطوير والتحسين في ظل استمرار ظهور المعلومات الخاطئة وانتشارها على نطاق أوسع وأسرع من أي وقت مضى. في ما يلي التحديات الثلاثة التي يسعى فريق عملنا إلى معالجتها حاليًا.

رصد المعلومات الخاطئة قبل انتشارها على نطاق واسععلى مدار عدّة سنوات،  تمحورت المعلومات الخاطئة على الإنترنت حول مواضيع أساسية محدودة، مثل أحداث 11 سبتمبر في الولايات المتّحدة ونظريات المؤامرة حول هبوط الإنسان على سطح الأرض ونظرية "الأرض المسطّحة".  وقد أدّت نظريات المؤامرة هذه إلى إنشاء أرشيف من المحتوى، وهو ما حرصنا على استغلاله لتدريب أنظمة تعلّم الآلة لدينا على رصد الأنماط المتكررة في هذا النوع من المحتوى من أجل تقليل ظهور الفيديوهات ذات الصلة وغيرها من المحتوى المشابه في قوائم الاقتراحات على المنصة. ومع ذلك، نجد أن القصص والمواضيع الجديدة غالبًا ما تنتشر بسرعة وتجذب الاهتمام، لا بل نجد أنّ البعض ينتقل من موضوع إلى آخر ضمن القصة الواحدة. على سبيل المثال،  قد يبدأ الفيديو بموضوع حول الصحة العامة ثمّ ينتقل إلى الحديث عن التردّد بشأن أخذ اللقاحات. لكل قصة إيقاعها الخاص ويمكن أن تنتشر بوتيرة مختلفة وأن تستهدف جمهورًا محددًا أيضًا.

برزت هذه التحديات بشكل خاص مع بداية انتشار جائحة فيروس كورونا المستجد (كوفيد-19)، مثل إقدام بعض الأفراد في المملكة المتّحدة على إحراق أبراج شبكات الجيل الخامس بزعم أنها تنشر فيروس كورونا. وبالنظر إلى المخاطر الواضحة المترتبة على هذه النظريات، سارعنا في تحديث إرشادات المنتدى ليتم تصنيف هذا النوع من المحتوى على أنّه مخالف لإرشاداتنا. بهذه الطريقة استطعنا التحرّك بسرعة أكبر لأن السياسات التي عملنا بها بشأن المعلومات الخاطئة حول كوفيد-19 كانت تستند إلى توجيهات هيئات الصحة المحلية والدولية.

نحن ندرك أنّه ليس بالضرورة أن تصدر لجميع الأحداث في المستقبل توجيهات يمكننا الاستناد إليها لتعديل سياساتنا. فكلما كان موضوع المعلومات الخاطئة حديثًا، قلّت الأمثلة التي يمكننا الاستعانة بها لتدريب أنظمتنا. لهذا السبب نعمل باستمرار على إدراج البيانات الجديدة في عمليات تدريب الأنظمة ونتطلّع إلى استخدام مجموعة أكثر تحديدًا من المصنّفات والكلمات الرئيسية في لغات إضافية، وكذلك استخدام المعلومات التي تصلنا من المحلّلين الإقليميين لتحديد المواضيع والقصص التي يصعب على المصنّفات الرئيسية لدينا أن ترصدها. سيساعدنا ذلك بمرور الوقت على رصد المعلومات الخاطئة بوتيرة أسرع وأكثر دقّة.

إلى جانب الحد من انتشار بعض أنواع المحتوى، تسعى أنظمتنا أيضًا إلى مساعدة المشاهدين في الوصول إلى الفيديوهات الموثوقة من خلال نتائج البحث وقوائم الاقتراحات، ولكن قد لا يتوفّر محتوى موثوق حول جميع المواضيع، وهو ما يُعرف بـ "الفجوات في البيانات" (data voids). لنأخذ على سبيل المثال انتشار خبر عاجل عن وقوع كارثة طبيعية. قد ينتشر في البداية محتوى غير مؤكّد عن الأسباب وحجم الخسائر، وبما أنّ صدور فيديوهات جديدة من المصادر الموثوقة قد يستغرق بعض الوقت، وبما أنّ المعلومات الخاطئة تنتشر بسرعة في الغالب، لن نتمكّن دائمًا وفي وقت قصير أن نوفّر محتوى موثوقًا يمكن للمشاهدين الاستناد إليه.

عندما يتعلّق الأمر بحدث كبير مثل وقوع كارثة طبيعية، نعرض لوحات إخبارية يتم تحديثها باستمرار لتوجيه المشاهدين إلى مقالات نصيّة حول الحدث. أمّا المواضيع المتخصصة الحديثة التي قد لا تغطيها وسائل الإعلام، فنوفّر للمشاهدين مربّعات تبيّن مدى صحة المعلومات في الفيديو، ولكن هذه الميزة تتطلّب بعض الوقت أيضًا ولن تغطي جميع المواضيع الناشئة. لهذا السبب بدأنا النظر في أنواع إضافية من التصنيفات التي يمكن إضافتها إلى الفيديوهات أو في أعلى نتائج البحث، مثل بيان إخلاء مسؤولية ينبّه المشاهدين عند نقص المعلومات العالية الجودة. في المقابل، لا بد أن ندرس ما إذا كانت إضافة هذه التصنيفات قد تسلّط الضوء عن غير قصد على مواضيع ما كانت لتجذب اهتمام المشاهدين. وهذا ما تتم مناقشته حاليًا بين فرق عملنا للتأكّد من اتّخاذنا القرار السليم. 

التعامل مع عمليات مشاركة المعلومات الخاطئة من منصات خارجية

من التحديات الأخرى التي نواجهها هو انتشار الفيديوهات القريبة من مخالفة سياساتنا ومشاركتها من خارج منصة YouTube. إنّها فيديوهات لا يمكننا إزالتها لأنّها لا تخالف سياساتنا تمامًا ولكن لا نريد بالضرورة أن نقترح على المستخدمين مشاهدتها. لقد عدّلنا أنظمة الاقتراحات لدينا لخفض نسبة مشاهدة هذا النوع من الفيديوهات إلى أقل بكثير من %1 وذلك من خلال تقليل ظهورها في قوائم الفيديوهات المقترحة على المنصة. ولكن عدم اقتراح الفيديوهات القريبة من مخالفة سياساتنا لا يعني أنّه لن تتم مشاهدتها مطلقًا، حيث يمكن لمواقع إلكترونية أخرى أن تعرض فيديوهات YouTube هذه على منصتها أو تضيف رابطًا ينقل المستخدمين إلى YouTube لمشاهدتها.

يمكننا معالجة هذه المسألة من خلال إلغاء زر المشاركة أو إبطال الروابط المؤدية إلى الفيديوهات التي نحدّ من ظهورها في قوائم الفيديوهات المقترحة. بهذه الطريقة لن يتمكّن أحدٌ من تضمين هذا النوع من الفيديوهات على المواقع الإلكترونية الخارجية أو إضافة رابط لها، ولكننا لا نزال نناقش ما إذا كان الحد من إمكانية مشاركة الفيديوهات قد يُعتبر شكلاً من أشكال كبح حريات المشاهد. فصحيحٌ أنّ أنظمتنا تقلّل ظهور الفيديوهات القريبة من مخالفة سياساتنا في قوائم الفيديوهات المقترحة، إلا أنّ مشاركة رابط لهذه الفيديوهات هو قرار مباشر يتّخذه المشاهد بنفسه، ويختلف عن اتّخاذه قرارًا غير مباشر مثل مشاهدة فيديو تم اقتراحه له في قائمة الفيديوهات المقترحة.

للسياق أهمية كبيرة أيضًا، فنحن نأخذ في الحسبان الفيديوهات التي يتم تضمينها في الدراسات البحثية أو التقارير الإخبارية وقد نتعامل معها بشكل مختلف عن سائر الفيديوهات القريبة من مخالفة سياساتنا. يجب أن نركّز على تحقيق التوازن بين الحد من انتشار المعلومات الخاطئة المحتمل أن تسبب ضرًرا وبين توفير بيئة لعرض المواضيع الحسّاسة والمثير للجدل لأغراض التعليم أو المناقشة.
من الحلول الأخرى التي نفكّر في تطبيقها هي إضافة نافذة بينية تَظهر للمستخدم قبل أن يشاهد فيديو مضمّنًا أو له رابط في موقع إلكتروني خارجي، وننبّه من خلالها المشاهد من أنّ الفيديو قد يكون يحتوي على معلومات خاطئة. يمكن القول أنّ النوافذ البينية تشبه مطبّات السرعة في الطرقات، فهي تحثّ المستخدم على التمهّل قليلاً قبل مشاهدة محتوى أو مشاركته. وتجدر الإشارة إلى أنّ النوافذ البينية ليس جديدة كليًا على المنصة، فقد سبق وبدأنا اعتمادها للإشارة إلى المحتوى المحظور على فئات عمرية معيّنة والمحتوى الذي يتضمّن مشاهد قاسية أو عنيفة. نحن نعتبر هذه النوافذ أداةً مهمةً لمساعدة المشاهدين في معرفة المزيد عن المحتوى قبل اختيار مشاهدته. سنواصل رحلتنا في البحث بعناية عن حلول مختلفة لضمان الحد من انتشار المعلومات الخاطئة والضارة على الإنترنت.

تكثيف جهودنا حول العالم للحد من انتشار المعلومات الخاطئة

لقد أثمرت جهودنا في الحد من المعلومات الخاطئة عن نتائج ملموسة، ولكن توسيع نطاق هذه الجهود لتشمل عشرات اللغات ومئات البلدان التي نعمل بها ليس أمرًا سهلاً ولا يخلو من الصعوبات. تختلف آلية تحديد المصادر الموثوقة من بلد إلى آخر. ففي حين تُعتبر قنوات البث العامة، مثل BCC في المملكة المتّحدة، مصدرًا معتمدًا للأخبار في بعض البلدان، يعتبرها البعض في بلدان أخرى مصدرًا للدعاية ونشر المعلومات المتحيّزة. تختلف أيضًا طريقة التعامل مع المحتوى الإخباري والمعلومات من بلد إلى آخر، فالبعض يفرض معايير صارمة للتحقّق من صحة الأخبار بينما يكتفي البعض الآخر بقليل من الإشراف وعمليات التحقّق فقط. بالإضافة إلى ذلك، يمكن للأخبار العاجلة أو الأحداث السياسية أو الأحداث ذات السياق التاريخي أن تؤدي إلى انتشار قصص مضلّلة محلية يكون لها تداعيات على بلد معيّن دون سواه. من الأمثلة على ذلك إلقاء البعض باللوم على نظريات المؤامرة الدولية في تفشّي مرض "زيكا" في البرازيل، أو انتشار الشائعات في اليابان مؤخرًا حول حدوث زلزال سببه تدخّل بشري.

بالنظر إلى هذه الاختلافات بين المناطق والبلدان، تواجه فرق عملنا العديد من المشاكل نفسها التي تواجهها في الحد من انتشار المعلومات الخاطئة، مثل تغيّر المعلومات المتوفرة عن موضوع معيّن أو عدم توفّر مصادر موثوقة كافية. لعلّ خير مثال على ذلك ما حصل في بداية الجائحة، حيث لم تتوفّر في جميع البلدان معلومات محدّثة من هيئات الصحة المحلية، وفي بعض الأحيان قدّمت هذه الهيئات إرشادات متضاربة. يمكن أن تختلف إلى حد كبير أيضًا آلية تحديد المحتوى القريب من مخالفة سياساتنا، وذلك لأنّ تفسير إرشادات تقييم المحتوى لدينا قد يختلف حسب اللغة أو الثقافة المحلية. نحن نأخذ هذا الأمر في الحسبان دائمًا عند تطوير الإرشادات ونستغرق وقتًا طويلاً في العمل مع الفرق والخبراء المحليين لتحديد السياقات الثقافية التي تحدّد ما إذا كان الفيديو على وشك مخالفة السياسات أم لا. إلى جانب تنمية فرق عملنا لتضمّ المزيد من الأشخاص ذوي الخبرة في تحديد الفروقات الثقافية الإقليمية المتداخلة مع المعلومات الخاطئة، فإنّنا ندرس الاستثمار في المزيد من الشراكات مع أصحاب الخبرة والمؤسسات غير الحكومية حول العالم. وعلى غرار نهجنا في التعامل مع المواضيع الرائجة، إنّنا نعمل حاليًا على تطوير حلول تحدّث نماذجنا بشكل متكرّر حتى تتمكّن أنظمتنا من رصد المعلومات الخاطئة التي تستهدف بلدًا محدّدًا، حتى لو كانت منشورة باللغة المحلية للبلد. تعزيز الشفافية سنواصل تكثيف جهودنا في YouTube للحد من المعلومات الخاطئة الضارة في جميع منتجاتنا وسياستنا، مع مواصلة تقديم بيئة تسمح لمجموعة كبيرة ومتنوّعة من الأفراد بمشاركة أفكارهم وآرائهم. لا تتوفّر لدينا جميع الإجابات والحلول بعد، إلا أن مشاركة تساؤلاتنا ومشاكلنا معكم يعدّ بغاية الأهمية لنا. فالآن هو الوقت الأكثر إلحاحًا للمضي قدمًا في جهودنا والتزامنا بالحفاظ على سلامة ورفاهية منتدى مستخدمي YouTube. وأنا أتطلّع إلى مشاركتكم كل جديد في هذا الخصوص.