ماذا يحدث؟
يُثير اختراع تقنيات الذكاء الاصطناعي مخاوف جدية في جميع المجالات، بما فيها الصحافة، وتزيد الوسائط الاصطناعية الوضع سوءًا. يركز هذا الدليل على تعريف الوسائط الاصطناعية، وتقنياتها، والأهم من ذلك، المخاطر التي تُهدد الصحافة.
لماذا هذا مهم؟
إن الأشكال المختلفة للبيانات التي تشكل المحتوى الإخباري على وشك أن تصبح مكررة، حيث أن الوسائط الاصطناعية - وهي خوارزمية يمكنها التلاعب بالنصوص والصور والمواد السمعية والبصرية - متاحة حاليًا لأولئك الذين يسعون إليها.
باستخدام هذا النموذج القائم على الذكاء الاصطناعي، "من الممكن إنشاء وجوه وأماكن غير موجودة، وحتى إنشاء صورة رمزية صوتية رقمية تحاكي الكلام البشري." ( ألدانا فاليس 2019)
تخيل عالماً يصعب فيه التمييز بين الأخبار الكاذبة والحقيقية، إذ يستطيع مروّجو الأخبار الكاذبة تحريف "الأدلة" لتخدم مصالحهم. على سبيل المثال، لن يتوقف أحد عن تصديق اندلاع الحرب العالمية الثالثة لو انتشرت مقاطع فيديو لترامب وبوتين وكيم يعلنون الحرب على نطاق واسع عبر الإنترنت. ورغم إمكانية دحض الحكومات المعنية لهذه الأخبار، إلا أن الذعر النفسي والاقتصادي الذي ستسببه قد يفوق أثر صاروخ.
التعمق أكثر
يمكن إنشاء الوسائط الاصطناعية باستخدام ثلاثة أنواع من الذكاء الاصطناعي التوليدي، وهي: الشبكات التوليدية التنافسية (GAN)، والمشفرات التلقائية المتغيرة، والشبكات العصبية المتكررة. تُستخدم هذه الأنواع من الذكاء الاصطناعي التوليدي لإنشاء الصور والفيديوهات والنصوص على التوالي. يُستخدم توليد الكلمات لأن معظم محتويات الوسائط التي تُنشأ بهذه الخوارزميات غير موجودة فعليًا؛ ومع ذلك، يمكن أيضًا استخدام الوسائط الاصطناعية للتكرار.
وفقًا لألدانا فاليس، "تستخدم الشبكات التوليدية التنافسية شبكتين عصبيتين (الشبكة العصبية هي نظام حاسوبي يمكنه التنبؤ بالعلاقات والأنماط المعقدة ونمذجتها) تتنافسان ضد بعضهما البعض"
تعمل الشبكتان الأولى والثانية كمولد ومميز على حدة. يشرف المميز على المولد، ضامنًا عدم إغفال أي جانب. بعد بعض التعديلات المتبادلة بينهما، يصبح المحتوى الناتج مشابهًا للمحتوى الأصلي.
على عكس الشبكات التوليدية التنافسية، تُسمى الشبكات العصبية في المشفرات التلقائية المتغيرة بالمشفر والمفكك، لأن هذه التقنية تتضمن ضغط محتوى الفيديو وإعادة بنائه. «يتضمن المفكك نمذجة احتمالية تحدد الاختلافات المحتملة بين المشفر والمفكك، مما يسمح له بإعادة بناء العناصر التي قد تُفقد أثناء عملية التشفير وفك التشفير.» (ألدانا فاليس، ٢٠١٩)
تعمل الشبكات العصبية المتكررة من خلال "التعرف على بنية مجموعة كبيرة من النصوص". هذه هي الطريقة المستخدمة في تطبيق تصحيح النصوص التلقائي للهواتف.
تُطبَّق هذه التقنيات في مشاريع متنوعة مثل GauGAN و Face2Face ونموذج GPT-2. ويُمكن إيجاد أحدث تطبيقات الوسائط الاصطناعية في مساعدي Siri وAlexa الافتراضيين، حيث أصبح بإمكانهم تحويل النصوص إلى صوت ومحاكاة الكلام البشري.
في مقال نُشر عام ٢٠١٧ بعنوان "الإباحية المدعومة بالذكاء الاصطناعي موجودة، ونحن جميعًا في ورطة"، كشف موقع فايس عن تداول فيديو إباحي مزيف، وهو أمر ليس بمشكلة لأن معظم الحبكات المصورة في الأفلام الإباحية مزيفة (يا للمفارقة!)؛ باستثناء أن الممثل كان يحمل وجه الممثلة الشهيرة غير الإباحية، غال غادوت (المرأة الخارقة). أيضًا، في عام ٢٠١٨، انتشر على موقع بازفيد فيديو يُظهر الرئيس باراك أوباما وهو يتحدث عن مخاطر الفيديوهات المُعدّلة. الغريب في هذا الفيديو أن الشخص المُولّد بالذكاء الاصطناعي يحمل وجه أوباما وصوت جوردان بيل، بفضل الوسائط الاصطناعية.
المحتوى من شركائنا
هناك حملة مستمرة ضد الضرر المحتمل للوسائط الاصطناعية على مصداقية الأخبار؛ ومع ذلك، "إلى جانب التغطية الإخبارية... تركز غرف الأخبار على كشف الوسائط الاصطناعية والتحقق من صحة المعلومات. على سبيل المثال، أنشأت صحيفة وول ستريت جورنال دليلًا ولجنةً وأعلنت صحيفة نيويورك تايمز مؤخرًا ) لمكافحة المعلومات المضللة على الإنترنت." (ألدانا فاليس، 2019)
خلاصة القول
قد تُساعد الوسائط الاصطناعية وكالات الأنباء على تجاوز حاجز اللغة بسلاسة، ولكنها قد تُشجع أيضًا على انتشار الأخبار الكاذبة. وبينما يستحيل منع شركات التكنولوجيا العملاقة من الخوض في أبحاث الذكاء الاصطناعي، يُمكن للصحفيين تعلّم كيفية الحدّ من الأضرار التي تُسببها هذه الوسائط.






