سياسات فيسبوك وتويتر ومؤسسات المجتمع المدني: محاولات للاختراق

الأربعاء 02 حزيران 2021
جرافيتي لمارك زوكربيرغ، الرئيس التنفيذي لفيسبوك على جدار الفصل العنصري في تشرين أول 2017. تصوير توماس كويكس. أ ف ب.

خلال الهبة الفلسطينية الأخيرة، قطعت شركات التواصل الاجتماعي الشك باليقين، وأثبتت تحيُّز سياساتها للطرف الأكبر نفوذًا وسلطة في ذروة الصراعات السياسية، حتى لو كان سلطة احتلال. لم تكن هذه الأحداث الأولى، ولن تكون الأخيرة، التي تتبع فيها هذه الشركات نمطًا من إدارة محتوى متحيزًا سياسيًا. ظهر هذا في ترك فيسبوك محتوى ترامب المحرّض ضد المسلمين، وفي ترك خطاب كراهية مُحرّض للمستوطنين ضد الفلسطينيين، وفي حذف تويتر لمئات حسابات النشطاء السياسيين في مصر، وحذف يوتيوب لآلاف الفيديوهات المؤرشفة للثورة السورية، وكان آخرها تغاضي فيسبوك عن ثغرة استغلها مرشحو الرئاسة في بلدان عدة للتلاعب بوصول محتواهم الانتخابي. 

على مدى السنوات الماضية، طورت شركات التواصل الاجتماعي مئات القواعد لإدارة المحتوى، منها ما هو مُعلن على صفحات المعايير المُجتمعية، ومنها ما هو مخفي يظهر فقط عبر تسريبه للإعلام. وفي 2017، نشرت مجلة «بروببليكا» وثائق إرشادية داخلية لفريق إدارة المحتوى في فيسبوك تمنع «التحريض على استخدام العنف لمقاومة احتلال دولة معترف بها عالميًا». لاحقًا، صرّح فيسبوك بأنه توقف عن العمل بها. وفي 2019، نشرت مجلة «نيويورك تايمز» وثائق داخلية لفيسبوك تصنف كلمة «شهيد» على أنها محتوى إرهابي. وقبل أيّام، نشرت مجلة «ذا إنترسيبت» تقريرًا عن سياسة داخلية للتعامل مع كلمة «الصهيونية»، وهي سياسة تساوي بين «الصهاينة» و«اليهود»، وأعطت السياسة تعليمات بحذف مواد تحتوي انتقادات أو شتائم للصهيونية. تُوّج انحياز شركة فيسبوك لطرف الاحتلال باختيار إيمي بالمور، المديرة العامّة السابقة لوزارة القضاء الإسرائيليّة، والتي أنشأت وحدة خاصة لتشديد الرقابة على المنشورات الفلسطينية، إلى مجلس الإشراف الذي أسسته فيسبوك في 2019. 

«لفيسبوك فريق إقليمي في الإمارات، وفريق إدارة المحتوى، وهو المسؤول عن تطوير سياسات الإدارة والمعايير المجتمعية لكل اللغات، موزّع في أنحاء العالم، لكن لا نعرف مدى التداخل بين الفريقين».

انطلقت حملات عديدة ضد سياسات مواقع التواصل الاجتماعي المُقيدة للمحتوى الفلسطيني خلال السنوات الماضية، منها ما بدأ محليًا مثل حملة #فيسبوك_يحجب_فلسطين التي أطلقها صحفيون ونشطاء في 2019 اعتراضًا على إغلاق 500 حساب وصفحة فلسطينية. ومنها عالمية كحملة FBWeNeedToTalk# اعتراضًا على السياسة التي ساوت بين «الصهيونية» و«اليهودية»، أو ما يسمى بسياسة الصهيونية. وشاركت في الحملة عشرات المؤسسات الفلسطينية والدولية. 

إن البيانات والعرائض من وسائل الضغط التي تستخدمها مؤسسات المجتمع المدني العربية والدولية المعنية بالحقوق الرقمية، كما تقول مروة فطافطة، مديرة سياسات الشرق الأوسط في منظمة «آكسس ناو» الدولية لحبر. بحسب مروة فإن علاقة فيسبوك بمؤسسات المجتمع المدني العربية والدولية مُعقدة، فمن ناحية، ينظر فيسبوك للعديد من هذه المؤسسات على أنها شريك موثوق، وهو ما يساهم في تسريع عملية استعادة نشطاء سياسيين ومؤسسات مجتمع مدني لحساباتها على الموقع عند حذفها أو تقييدها دون سبب واضح أو لخطأ تقني، إذ تتواصل هذه الجهات مع فيسبوك طالبة ذلك. ومن ناحية أخرى تشارك هذه المنظمات بحملات وبيانات واجتماعات منتقِدة للانتهاكات الحقوقية لسياسات فيسبوك. وينظم فيسبوك اجتماعات دورية مع هذه المؤسسات ضمن برنامجه «إدماج الشركاء» (stakeholder community engagement) لأخذ استشارتهم ببعض سياساته الداخلية أو لجعل تطوير المعايير المجتمعية «جامعة أكثر» كما يدّعي فيسبوك.

في هذه المقابلة مع مروة فطافطة نحاول تفكيك علاقة شركات التواصل الاجتماعي مع مؤسسات المجتمع المدني المعنية بالحقوق الرقمية سواء المحلية أو الدولية، وتقييم مدى فاعلية أدوات الضغط التي تستخدمها هذه المؤسسات على هذه الشركات، وكيف تغيرت هذه الأدوات بعد أحداث الشيخ جراح. 

حبر: ما الجديد في سياسة إدارة المحتوى الفلسطيني منذ أحداث حي الشيخ جراح، وكيف تفسرين التضامن العالمي مع القضية رغم هذا التقييد؟

فطافطة: المختلف هذه المرة هو حجم الرقابة والتقييد. كان من الواضح تجيير البنية التحتية للمنصة لطمس المحتوى الفلسطيني. هُدّد المستخدمون بحذف منشوراتهم وإغلاق حساباتهم، وخُسف انتشار المنشورات المتضامنة الصادرة من الحسابات المؤثرة كحسابات المشاهير والممثلين والسياسيين بالمقارنة مع معدّل وصول منشوراتهم الأخرى. هذا السلوك يسمّى بالحجب الخفي (Shadow banning).

كانت التقييدات تدريجية غير مباشرة. أحيانًا قد يحذف المحتوى ويأتي للمستخدم تنبيه بأنه مخالف للمعايير المجتمعية، لكن أحيانًا أخرى، يعطل فيسبوك خاصية «اللايك» أو التعليق أو البث المباشر إن كان للمحتوى علاقة بالقضية الفلسطينية. كما لاحظنا أمورًا غريبة، مثل أن يقترح انستغرام متابعة حسابات معينة، على سبيل المثال، مؤسسة فلسطينية، وبمجرّد المتابعة يصل تنبيهٌ عن تقييد انستغرام لهذا الحساب لمخالفته المعايير المجتمعية.

زخم المحتوى وحجمه الهائل هو ما جعله ينتشر رغم التقييدات، لأن الشركات لو قرّرت حذف كل هذا المحتوى فإنها كانت ستؤذي نفسها.

بعد حذفهما لمحتوى حول طرد المستوطنين للفلسطينيين من بيوتهم، أرجع تويتر وانستغرام هذا الحذف لخلل تقني لم يؤثر فقط على فلسطين وإنما على المحتوى المرتبط بالمظاهرات في كولوميبا وكندا والبرازيل، السؤال هو هل اختلف شكل إدارة المحتوى في الفترة اللاحقة لهذه البيانات؟ 

في البداية صرّح انستغرام بالقول «نواجه مشكلة تقنية بالمنصة» ليس لها علاقة بموضوع معين بل هي عالمية. وعندما تعالت الضجة حول حذف المحتوى، نشر فيسبوك وتويتر تصريحًا موسعًا عن تحديثٍ بالنظام الخاص بهم، كان نتيجته حذف محتوى متعلّق بالشيخ جراح وكولومبيا والتجمعات في كندا. وذكروا بالنص المجموعات اللي تضررت. 

لم يكن هذا التصريح كافيًا لتفسير ما حدث، خاصةً أن الخلل أثر فقط على محتوى خاص بالحراكات السياسية في قمة ذروتها، ولم يتضرر كل مستخدمي انستغرام، لذا طالبنا في منظمة «أكسس ناو» مع مجموعة من مؤسسات المجتمع المدني العربية فيسبوك بفتح تحقيق يفسر حذف المحتوى ونشر نتائجه بشفافية. هذا التساؤل لم يجب عليه فيسبوك، ولن يجيب. 

وفي 10 أيار، عندما اقتحمت قوات الاحتلال الأقصى، قيد فيسبوك هاشتاغ الأقصى، وعاد ليقول إنه خطأ تقني. كشف صحفي من موقع بازفيد الأمريكي أن فيسبوك وضع «الأقصى» ضمن قائمة الأفراد والمنظمات الخطرة، أي أنه خلط بين المسجد الأقصى وكتائب شهداء الأقصى. عذر أقبح من ذنب. وكأنهم يقولون إن موظفي فيسبوك لا يملكون المعرفة العامة بأن «الأقصى» ثالث أقدس مكان في العالم لملياري مسلم، وكأنك تدرجين الفاتيكان أو نوتردام أو مكة كمنظمة إرهابية. 

ما هي أبرز السياسات المكتوبة عند فيسبوك وتويتر تجاه المحتوى الفلسطيني؟

في السنة الأخيرة، تواصل فيسبوك معنا كـ«أكسس ناو» لإدارة اجتماعات استشارات خاصة حول سياستين، الأولى سياسة الصهيونية والثانية سياسة التعامل مع كلمة شهيد، مما يؤكد أن عندهم سياسات موجودة هدفها مراقبة وتقييد المحتوى الفلسطيني بالدرجة الأولى. المشكلة الأساسية بهذه السياسات أنها غير مُعلنة ولا منشورة على صفحة فيسبوك كما المعايير المجتمعية لإدارة المحتوى التي تدعي بأنها تنطبق على جميع المستخدمين بشكل متساوٍ. من الواضح أن هذه السياسات تستهدف الخطاب الفلسطيني والمحتوى الفلسطيني عن غيره. نعرف هذه السياسات عبر التجربة. إن تحدثتِ لأي صحفي فلسطيني أو ناشط، سيخبرك عن حذف المنشورات التي تحتوي على كلمة «شهيد» أو «حماس» أو صورة شخص ملثم. 

يعدّ فيسبوك كلمة «شهيد» دلالة تفخيم «للإرهابيين». بالتالي إن استخدمت كلمة «شهيد» لوصف أي اسم في القائمة التي وضعتها فيسبوك «للأفراد والمنظمات الخطرة» اعتبرها تمجيدًا للإرهاب.

لم يجب فيسبوك على سؤالنا عن الأسباب الموجبة لهذه السياسات. 

يعدّ فيسبوك كلمة «شهيد» دلالة تفخيم «للإرهابيين». بالتالي إن استخدمت كلمة «شهيد» لوصف أي اسم في القائمة التي وضعتها فيسبوك «للأفراد والمنظمات الخطرة» -التي هي قائمة غير مُعلن عنها- اعتبرها تمجيدًا للإرهاب. تقوم سياسة قائمة الأفراد والمنظمات الخطرة، بحسب فيسبوك، على منع أي ضرر على أرض الواقع. سألت فيسبوك، هل لديكم دراسة عن موقف أو حادثة، استخدمت فيه كلمة شهيد وأدت لعنف على أرض الواقع؟ فكانت الإجابة أنهم بصدد إجراء هذه الدراسة، وتم الالتفاف على الإجابة. سألتهم أيضًا عن مدى صحة ادعاء فيسبوك توفيرهم منصة لمن ليس لديه صوت، رغم إدراكهم أن فلسطين هي منطقة نزاع بحسب القانون الدولي وهنالك معايير قوى غير متساوية على الأرض، ما الذي تقومون به لتمكنوا وتصونوا وتحترموا الحقوق الأساسية لشعبٍ تحت الاحتلال، وخاصة أن الحكومة المُحتلّة عندها موارد ونفوذ سياسي واقتصادي، أجابوني بأن تواصلهم معنا كمؤسسات مجتمع مدني هدفه فهم السياق. 

الانطباع العام لدي من خلال تواصلي مع تويتر أنه أخف ّحدّة وتقييدًا من فيسبوك. حتى الآن ليس لدي علم بأي سياسات من جهة تويتر خاصة بالمحتوى الفلسطيني أو العربي، بالمقابل في فيسبوك هناك عدد من هذه السياسات. 

ما أشكال التواصل مع شركة فيسبوك التي تقوم بها مؤسسات المجتمع المدني، وهل أسهم هذا التواصل بتعديل سياسات إدارة المحتوى؟

نتواصل في مؤسسات المجتمع المدني مع فيسبوك، ونصدر بيانات صحفية ومواقف وعرائض. في بعض الأحيان تكون هذه الأدوات فعالة، وفي أحيان أخرى لا. وصرنا نشعر أن فيسبوك، ربما يكون منيعًا ضد خطر التأثير على سمعته. طلبنا عقد اجتماعات مع قيادات تويتر وفيسبوك، لأن المكاتب الإقليمية «ما بتحل ولا بتربط»، استجاب تويتر، ولا زلنا ننتظر رد فيسبوك. 

على مدى السنوات الماضية، طورت شركات التواصل الاجتماعي مئات القواعد لإدارة المحتوى، منها ما هو مُعلن على صفحات المعايير المُجتمعية، ومنها ما هو مخفي يظهر فقط عبر تسريبه للإعلام.

يتواصل فيسبوك معنا أحيانًا عند تطوير أو تعديل سياسة ما، لكن بشكل انتقائي وعشوائي. تفاجئنا بعد عام من تواصل فيسبوك معنا في 2020 لإقرار سياسة الصهيونية بأن هذه السياسة مُفعلة منذ 2019. أمّا بالنسبة لسياسة الشهيد، فتواصل معنا فيسبوك حتى يفهم البعد الإقليمي لهذه السياسة بسبب عدد الشكاوى الهائل التي تلقاها. ولكن بعد التواصل وإرسال جميع الملاحظات، يختفي موظفو فيسبوك ولا يتم إعلامنا كيف انعكس تواصلهم معنا على هذه السياسة، لأنها بالأساس غير معلنة. يستجيب فيسبوك عندما نرفع له كمؤسسة مجتمع مدني حالات لحسابات كان هناك خطأ في التعامل معها أو توقيفها، لكنه لا يستجيب عند طلب مؤسسات المجتمع المدني المشاركة بحل خلل بنيوي سواء في وضع سياسة إدارة المحتوى، أو تطبيقها.

يتعامل فيسبوك مع المجتمع المدني ووسائل الإعلام وقاعدة مستخدميه في أمريكا وأوروبا بشكل مختلف، فيدلي بتصريحات ويعقد مؤتمرات صحفية ردًا على الفضائح الإعلامية بشكل أساسي. فمثلًا، في موضوع الأقصى، لو لم تكن هناك تغطية إعلامية غربية وصحفيون استجوبوا فيسبوك، لم نكن لنسمع منه أي إجابات على إدارة محتوى الهبة. لا يتعلم فيسبوك من أخطائه، ويتبع سياسة إخماد النيران في التعامل مع الفضائح، أما استجابتهم بتغيير داخلي، سواء بتغيير سياساتهم أو هيكليتهم، فتكون بحسب القيمة السوقية للدول التي يعمل فيها، وبسبب الخوف من التقنين والقوانين المُقيدة. أكبر دليل على هذا هو المقارنة بين سلوك فيسبوك تجاه الانتخابات الأمريكية، وتأهبه لها واتخاذه إجراءات احترازية للتعامل معها، فيما تجاهل فعل الأمر نفسه في الانتخابات التونسية 2019. حاولنا كـ«آكسس ناو» وعدد من مؤسسات المجتمع المدني التونسية تنبيه فيسبوك قبل الانتخابات بوضع آليات تمنع التأثير على نتائج الانتخابات التونسية عبر الإعلانات الممولة، حتى لا يتكرر سيناريو كامبريدج أناليتيكا في تونس، ولم يستجيبوا لنا. 

هل سبق أن نجحت مؤسسات المجتمع المدني بتغيير سياسة ما في فيسبوك بعد التواصل معه؟ 

على مستوى المنطقة، ربما نجحنا في مرّة واحدة فقط. في فيسبوك قسم وظيفته اكتشاف الشبكات الوهمية على المنصة، وهي شبكات تنشئ حسابات وصفحات للتلاعب بالرأي العام والتأثير على نتائج الانتخابات. في العام الماضي، حذف فيسبوك مئات الحسابات في تونس، ووجد العديدون فجأة أنهم غير قادرين على استخدام المنصة دون توضيح الأسباب.

بعد التحقيق بهذه التقارير، اكتشفت عملية قرطاج التي كشفت عن شركة الإعلام الرقمي (UReputation) التي يمتلكها رجل أعمال تونسي، وهدفها التلاعب بنتائج الانتخابات في تونس عام 2019 وفي انتخابات أكثر من عشر دول أفريقية. حذف فيسبوك مئات الحسابات لأشخاص ليس لهم علاقة بهذه العملية، تواصلنا معهم وعملنا ضجة لاستعادة هذه الحسابات. 

بعد هذه الحادثة، صار فيسبوك يتواصل معنا قبل نشر تقاريره المتعلقة بالشبكات الوهمية في المنطقة، لتجنب تكرار حادثة تونس. الطريقة التي عملوا بها على تصحيح هذا الخطأ كانت فوضوية جدًا. كنا كمؤسسات مجتمع مدني نوثق الحسابات المتضررة ونرفعها لفيسبوك، فنكتشف أن فيسبوك أعادها دون تفسير لنا أو للمستخدم. 

هل يمكن شرح هيكلية أقسام إدارة المحتوى العربي في فيسبوك، من هي الدوائر المسؤولة عن وضع هذه السياسات أو تطبيقها؟

واحدة من النقاط المهمة في موضوع هيكلية فيسبوك أنها غير معروفة. ولذا، في أحيان كثيرة، لا تعرفين مع من تتواصلين من الشركة، عدا أنهم يتغيرون بشكل دوري. لفيسبوك فريق إقليمي في الإمارات، وفريق إدارة المحتوى، وهو المسؤول عن تطوير سياسات الإدارة والمعايير المجتمعية لكل اللغات، موزّع في أنحاء العالم، لكن لا نعرف مدى التداخل بين الفريقين. عادة يتواصل معنا فريق إدارة المحتوى لمراجعة سياسات معينة، ويكون الشخص المسؤول عن المنطقة العربية موجودًا في الإيميل، فهنالك بعض من التنسيق. أمّا المكتب الإقليمي فيتواصل معنا لترتيب اجتماعات مؤسسات المجتمع المدني لكن ليس هنالك شفافية توضح دورة حياة تطوير السياسات من بداية الفكرة للتطبيق، من أي فريق تبدأ هذه السياسة، ومن يستشيرون، ومتى يتدخل الفريق العربي. 

تتفاجئين أحيانًا بوجود أشخاص لم نسمع بهم من قبل. مثلًا، نتعامل كمؤسسات مجتمع مدني مع شخص مسؤول عن سياسات حقوق الإنسان لمنطقة الشرق الأوسط في فيسبوك، ويكون أغلبية التواصل عن طريقه. لدى فيسبوك أيضًا فريق حقوق إنسان موزع على مكاتب إقليمية، ولكن حجم التأثير والنفوذ والقدرة على اتخاذ القرارات لهذا الفريق، داخليًا، ضعيف جدًا. 

في 2018 ذكرت تسريبات نشرتها صحيفة «نيويورك تايمز» أن فيسبوك تعتمد على موظفين في الشركة ومتعاقدين خارجها لإدارة المحتوى. متى تكون إدارة المحتوى آلية معتمدة على خوارزميات الذكاء الاصطناعي ومتى تكون معتمدة على حكم أفراد؟

لا يصرّح فيسبوك بهذه المعلومات، ولكن يمكن الوصول إلى استنتاجات بناءً على سلوكيات الحذف المختلفة. عندما تُحذف الستوريز القديمة والجديدة من مئات الحسابات على انستغرام يمكن استنتاج أن هذا فعل خوارزمية معينة، إذ من المستحيل أن يقوم شخص بتقييم كل هذه الستوريز وحذف القديم والجديد منها يدويًا. أذكر أن ناشطًا نشر كلمات عشوائية لتكوين جملة لا معنى لها لاختبار الخوارزميات، مثل «جهاد حماس الأقصى» وحُذف منشوره. الاحتمال الأكبر أن الخوارزمية حكمت على منشوره، فلا يمكن لشخص أن يحاجج بأن هذه الجملة «خطاب كراهية». 

من المفترض أن تُصمم الخوارزمية بطريقة تُعالج مشكلة مُعينة بالمحتوى. لا نعلم من يحدد المشكلة، ولا طبيعة البيانات الأولية التي يتم تغذية الخوارزمية بها لتتعلم إصدار أحكام على محتوى جديد. تطالب مؤسسات المجتمع المدني حول العالم شركات التواصل الاجتماعي بنشر بياناتٍ دقيقة عن طبيعة المحتوى التي تُزيله. ليس لدينا أي معلومات عن فعالية هذه الخوارزميات، أو نسبة الخطأ في حكمها. استطاع المستخدمون فك شيفرة بعض الخوارزميات عبر التجربة والخطأ. فلجؤوا لطرق مثل إزالة النقاط من النص العربي. 

ما الذي تعلمته مؤسسات المجتمع المدني المعنية بالدفاع عن الحقوق الرقمية عن فاعلية أدوات الضغط على شركات التواصل الاجتماعي، من خلال تعاملها مع أحداث الهبة الشعبية الفلسطينية؟ 

هنالك ائتلاف غير رسمي في المنطقة العربية تأسس بداية هذا العام، مكوّن من عدد من المؤسسات العربية من لبنان ومصر وفلسطين والأردن وتونس، ومن مؤسسات حقوقية دولية تعمل على الحقوق الرقمية من ضمنها «أكسس ناو». ننسق بشكل مستمر بين هذه المؤسسات لفهم طبيعة الحذف والتقييد ونقل دور مؤسسات المجتمع المدني من رفع حالات وقضايا فردية إلى التأثير على السياسات البنيوية.

ينتشر الآن خطاب بين مؤسسات المجتمع المدني التي تعنى بالحقوق الرقمية يرفض أن يكون دورها تجميليًا فيما يتعلق بالاستشارات، أو تمرينًا لفيسبوك لوضع علامة صح بجانب التفاعل مع مؤسسات المدني. ويطالب أن تضع هذه المؤسسات شروطًا للنقاشات، وأن يكون هنالك التزام بالشفافية وشرط بمعرفة أثر استشارتنا على السياسة ذاتها حتى تكتمل الحلقة. هناك نقاش حول مقاطعة استشارتهم والتواصل معهم وفرض شروط على هذه الاستشارات بحيث لا يتم استغلالنا كمؤسسات مجتمع مدني وأخذ قضايانا على محمل الجد. 

بالنسبة للشأن الفلسطيني، وضعنا مطالب أكثر تفصيلًا، مثل الإفصاح عن السياسات الداخلية المستخدمة لإدارة المحتوى في فلسطين و«إسرائيل»، والإفصاح عن بيانات لها علاقة بطلبات وحدة الجرائم الإلكترونية الإسرائيلية لفيسبوك، والتي تقدم آلاف الطلبات لإزالة المحتوى وتقييده على المنصة، والتي استجاب فيسبوك لحوالي 81% منها. 

أمّا فيما يتعلق بالضغط الشعبي، فاتضح أن الحملة التي نادت بتنزيل تقييم تطبيقات التواصل الاجتماعي على متاجر التطبيقات نبّهت فيسبوك، وصُنّفت هذه الحملة كثاني أعلى التهديدات التي تواجه المنصة بعد تهديد توقف عمل المنصة، لدرجة أن فيسبوك طلب من أبل وجوجل إزالة هذه التقييمات، ورفضوا ذلك. كانت هذه طريقة للمستخدمين لمقاومة فيسبوك وتويتر وانستغرام.

 لتصلك أبرز المقالات والتقارير اشترك/ي بنشرة حبر البريدية

Our Newsletter القائمة البريدية