الحكومات والمراقبون في جميع أنحاء العالم مرارًا وتكرارًا عن مخاوفهم بشأن احتكار شركات التكنولوجيا الكبرى ودورها في نشر المعلومات المضللة. وردًا على ذلك، حاولت هذه الشركات استباق القوانين واللوائح من خلال تنظيم نفسها .
مع إعلان فيسبوك أن مجلس الرقابة التابع لها سيتخذ قرارًا بشأن ما إذا كان بإمكان الرئيس السابق دونالد ترامب استعادة الوصول إلى حسابه بعد أن قامت الشركة بتعليقه، فإن هذه الخطوة وغيرها من الخطوات البارزة التي اتخذتها شركات التكنولوجيا لمعالجة المعلومات المضللة قد أعادت إشعال النقاش حول الشكل الذي ينبغي أن يكون عليه التنظيم الذاتي المسؤول من قبل شركات التكنولوجيا.
تُظهر الأبحاث ثلاث طرق رئيسية يمكن أن تعمل بها عملية التنظيم الذاتي لوسائل التواصل الاجتماعي: تقليل أهمية التفاعل، ووضع علامات على المعلومات المضللة، والاستعانة بالجمهور للتحقق من دقة المعلومات.
تقليل أهمية المشاركة
صُممت منصات التواصل الاجتماعي للتفاعل المستمر ، وتُصمم الشركات خوارزمياتها لاختيار المنشورات التي يراها المستخدمون للحفاظ على تفاعلهم. تُظهر الدراسات أن الأخبار الكاذبة تنتشر أسرع من الأخبار الصحيحة على وسائل التواصل الاجتماعي ، غالبًا لأن الناس يجدون الأخبار التي تُثير مشاعرهم أكثر جاذبية ، مما يزيد من احتمالية قراءتهم لها والتفاعل معها ومشاركتها. ويتضاعف هذا التأثير من خلال التوصيات الخوارزمية. دراستي إلى أن الناس يتفاعلون مع مقاطع فيديو يوتيوب حول مرض السكري بشكل أكبر عندما تكون هذه المقاطع أقل إفادة.
معظم منصات التكنولوجيا الكبرى دون رقابة أو تصفية كما هو الحال في المصادر التقليدية للأخبار والمعلومات. وتتيح لها كمياتها الهائلة من البيانات الديموغرافية الدقيقة والمفصلة إمكانية استهداف أعداد صغيرة من المستخدمين بدقة متناهية . هذا، بالإضافة إلى التضخيم الخوارزمي للمحتوى المصمم لزيادة التفاعل، قد يُفضي إلى سلسلة من العواقب السلبية على المجتمع، بما في ذلك قمع الناخبين رقميًا ، واستهداف الأقليات بالتضليل الإعلامي والإعلانات التمييزية الموجهة .
إن تقليل أهمية التفاعل في توصيات المحتوى من شأنه أن يحدّ من ظاهرة "التشتت" التي تُسببها وسائل التواصل الاجتماعي ، حيث يتصفح المستخدمون منشورات ومقاطع فيديو لا حصر لها. التصميم الخوارزمي لمنصات التكنولوجيا الكبرى الأولوية للمحتوى الجديد والمُستهدف بدقة، مما يُشجع على انتشار المعلومات المُضللة بشكلٍ شبه مُطلق. وقد لخص تيم كوك، الرئيس التنفيذي لشركة آبل، المشكلة مؤخرًا بقوله : "في ظل انتشار المعلومات المُضللة ونظريات المؤامرة التي تُغذيها الخوارزميات، لم يعد بإمكاننا تجاهل نظرية تكنولوجية تُؤكد أن كل تفاعل هو تفاعل جيد - وكلما طال التفاعل كان ذلك أفضل - وكل ذلك بهدف جمع أكبر قدر ممكن من البيانات."
معلومات مضللة على الملصقات
بإمكان شركات التكنولوجيا تبني نظام تصنيف المحتوى لتحديد ما إذا كان الخبر موثقًا أم لا. خلال الانتخابات، أعلن تويتر عن سياسة نزاهة مدنية تقضي بعدم توصية . تُظهر الأبحاث أن التصنيف فعال. وتشير الدراسات إلى أن تطبيق التصنيفات على منشورات وسائل الإعلام التي تسيطر عليها الدولة ، مثل قناة RT الروسية، قد يُخفف من آثار المعلومات المضللة.
في تجربةٍ، استعان الباحثون بعمالٍ مؤقتين مجهولي الهوية لتصنيف المنشورات الموثوقة . عُرضت المنشورات لاحقًا على فيسبوك مع تصنيفاتٍ أضافها هؤلاء العمال. في تلك التجربة، تمكّن العمال من مختلف الأطياف السياسية من التمييز بين المصادر الموثوقة ومصادر الأخبار المتحيزة أو المزيفة، مما يُشير إلى أن الجماهير غالبًا ما تُجيد التمييز بين الأخبار الحقيقية والمزيفة.
التجارب أيضًا أن الأفراد الذين لديهم بعض الاطلاع على مصادر الأخبار يستطيعون عمومًا التمييز بين الأخبار الحقيقية والمزيفة. كما وجدت تجارب أخرى أن تقديم تذكير بمدى دقة منشور ما يزيد من احتمالية مشاركة المشاركين للمنشورات الدقيقة أكثر من مشاركة المنشورات غير الدقيقة.
في عملي، درستُ كيفية استخدام مزيج من المُعلِّقين البشريين، أو مُراقبي المحتوى، وخوارزميات الذكاء الاصطناعي - ما يُعرف بالذكاء المُدمج مع العنصر البشري - لتصنيف مقاطع الفيديو المتعلقة بالرعاية الصحية على يوتيوب . مع أنه من غير العملي أن يشاهد متخصصون طبيون كل مقطع فيديو على يوتيوب حول مرض السكري، إلا أنه من الممكن تطبيق أسلوب التصنيف المُدمج مع العنصر البشري. على سبيل المثال، استعنتُ أنا وزملائي بخبراء في هذا المجال لتقديم ملاحظاتهم لخوارزميات الذكاء الاصطناعي، مما أدى إلى تحسين تقييم محتوى المنشورات ومقاطع الفيديو.
لقد طبّقت شركات التكنولوجيا بالفعل مثل هذه الأساليب. يستخدم فيسبوك مزيجًا من مدققي الحقائق وخوارزميات كشف التشابه لفحص المعلومات المضللة المتعلقة بكوفيد-19. وتكشف هذه الخوارزميات عن المنشورات المكررة والمتشابهة مع المنشورات المضللة.
إنفاذ القانون على مستوى المجتمع
أعلنت تويتر مؤخرًا عن إطلاق منتدى مجتمعي، Birdwatch ، لمكافحة المعلومات المضللة. ورغم أن تويتر لم تُفصح عن تفاصيل آلية التنفيذ، إلا أن آلية التحقق الجماعي، التي تجمع الأصوات (سواءً كانت إيجابية أو سلبية) للمنشورات الرائجة، وتستخدم خوارزميات موجز الأخبار لخفض تصنيف المحتوى من مصادر غير موثوقة، قد تُسهم في الحد من انتشار المعلومات المضللة.
الفكرة الأساسية مشابهة لنظام المساهمة في المحتوى في ويكيبيديا ، حيث يصنف المتطوعون المنشورات الرائجة إلى حقيقية ومزيفة. يكمن التحدي في منع المستخدمين من التصويت إيجابًا على المحتوى المثير للاهتمام والجذاب ولكنه غير موثق، خاصةً مع وجود محاولات متعمدة للتلاعب بالتصويت . يمكن التلاعب بالأنظمة من خلال عمل منسق ، كما حدث مؤخرًا في قضية التلاعب بأسهم شركة جيم ستوب .
تتمثل مشكلة أخرى في كيفية تحفيز الناس على المشاركة الطوعية في جهد تعاوني مثل كشف الأخبار الكاذبة عبر التعهيد الجماعي. إلا أن هذه الجهود تعتمد على متطوعين يُقيّمون دقة المقالات الإخبارية ، على غرار ويكيبيديا، كما تتطلب مشاركة منظمات خارجية للتحقق من الحقائق، والتي يمكن الاستعانة بها لكشف ما إذا كان الخبر مضللاً.
مع ذلك، يتطلب نموذج ويكيبيديا آليات قوية لإدارة المجتمع لضمان التزام المتطوعين الأفراد بإرشادات متسقة عند توثيق المنشورات والتحقق من صحتها. وقد حدّثت ويكيبيديا مؤخرًا معايير مجتمعها خصيصًا للحد من انتشار المعلومات المضللة . أما مسألة ما إذا كانت شركات التكنولوجيا الكبرى ستسمح طواعيةً بمراجعة سياساتها المتعلقة بإدارة المحتوى بهذه الشفافية، فهي مسألة أخرى.
[ احصل على أفضل قصصنا في مجالات العلوم والصحة والتكنولوجيا. اشترك في النشرة الإخبارية العلمية لـ The Conversation .]
مسؤوليات شركات التكنولوجيا الكبرى
في نهاية المطاف، يمكن لشركات التواصل الاجتماعي استخدام مزيج من تقليل أهمية التفاعل، والشراكة مع المؤسسات الإخبارية، والذكاء الاصطناعي، والكشف عن المعلومات المضللة عبر التعهيد الجماعي. من غير المرجح أن تنجح هذه الأساليب منفردة، بل يجب تصميمها لتتكامل معًا.
يمكن أن تُحدث الإجراءات المنسقة التي تُسهّلها وسائل التواصل الاجتماعي اضطرابًا في المجتمع، بدءًا من الأسواق المالية وصولًا إلى السياسة . وتلعب منصات التكنولوجيا دورًا بالغ الأهمية في تشكيل الرأي العام، مما يعني أنها تتحمل مسؤولية تجاه الجمهور في إدارة شؤونها بكفاءة.
تتزايد الدعوات إلى فرض رقابة حكومية على شركات التكنولوجيا الكبرى في جميع أنحاء العالم، بما في ذلك الولايات المتحدة، حيث أظهر استطلاع رأي أجرته مؤسسة غالوب مؤخرًا تدهورًا في المواقف تجاه شركات التكنولوجيا وزيادة في الدعم للرقابة الحكومية. وتُحمّل القوانين الألمانية الجديدة بشأن إدارة المحتوى شركات التكنولوجيا مسؤولية أكبر عن المحتوى المنشور على منصاتها. كما أن مجموعة من اللوائح في أوروبا، التي تهدف إلى تقليص الحماية القانونية التي تتمتع بها هذه المنصات، واللوائح المقترحة في الولايات المتحدة لإعادة هيكلة قوانين الإنترنت، ستزيد من التدقيق في سياسات إدارة المحتوى التي تتبعها شركات التكنولوجيا.
من المرجح أن يكون هناك شكل من أشكال التنظيم الحكومي في الولايات المتحدة، ولا تزال أمام شركات التكنولوجيا الكبرى فرصة للانخراط في تنظيم ذاتي مسؤول - قبل أن يُجبر المشرعون هذه الشركات على التصرف.
أنجانا سوسارلا ، أستاذة أومورا ساكسينا للذكاء الاصطناعي المسؤول، جامعة ولاية ميشيغان
تم إعادة نشر هذه المقالة من The Conversation بموجب ترخيص المشاع الإبداعي. إقرأ المقال الأصلي .



