يُثير اختراع تقنيات الذكاء الاصطناعي مخاوف جدية في جميع المجالات، بما فيها الصحافة، وتزيد الوسائط الاصطناعية الوضع سوءًا. يركز هذا الدليل على تعريف الوسائط الاصطناعية، وتقنياتها، والأهم من ذلك، المخاطر التي تُهدد الصحافة.
لماذا هذا مهم؟
أصبحت أشكال البيانات المختلفة التي تشكل المحتوى الإخباري على وشك الوقوع في فخ الخداع، حيث أن الوسائط الاصطناعية - وهي خوارزمية قادرة على التلاعب بالنصوص والصور والمواد السمعية والبصرية - متاحة حاليًا لمن يسعى إليها. وباستخدام هذا النموذج القائم على الذكاء الاصطناعي، "من الممكن إنشاء وجوه وأماكن غير موجودة، بل وحتى إنشاء صورة رمزية صوتية رقمية تحاكي الكلام البشري"
ألدانا فاليس (2019) تخيّل عالماً يصعب فيه التمييز بين الأخبار الحقيقية والمزيفة، إذ يستطيع مروّجو الأخبار المزيفة تحريف "الأدلة" لخدمة أجندتهم. على سبيل المثال، لن يتوقف أحد عن تصديق اندلاع الحرب العالمية الثالثة لو انتشرت مقاطع فيديو لترامب وبوتين وكيم يعلنون الحرب على نطاق واسع عبر الإنترنت. ورغم إمكانية دحض الحكومات المعنية لهذه الأخبار، إلا أن الذعر النفسي والاقتصادي الذي ستسببه قد يفوق أثر صاروخ.
التعمق أكثر
يمكن إنشاء الوسائط الاصطناعية عبر ثلاثة أشكال من الذكاء الاصطناعي التوليدي، وهي: الشبكات التوليدية التنافسية (GAN)، والمشفرات التلقائية المتغيرة، والشبكات العصبية المتكررة. تُستخدم هذه التقنيات المذكورة لتوليد الصور والفيديوهات والنصوص على التوالي. يُستخدم مصطلح "التوليد" لأن معظم محتويات الوسائط التي تُنشأ باستخدام هذه الخوارزميات غير موجودة فعليًا؛ ومع ذلك، يمكن أيضًا استخدام الوسائط الاصطناعية للتكرار. ووفقًا لألدانا فاليس، "تستخدم الشبكات التوليدية التنافسية شبكتين عصبيتين (الشبكة العصبية هي نظام حاسوبي قادر على التنبؤ بالعلاقات والأنماط المعقدة ونمذجتها) تتنافسان فيما بينهما". تعمل الشبكة الأولى كمولد، بينما تعمل الثانية كمُميز. يُشرف المُميز على المولد، ضامنًا عدم إغفال أي جانب. بعد بعض التعديلات المتبادلة بين الشبكتين، يُصبح المحتوى الناتج مشابهًا للمحتوى الأصلي. على عكس الشبكات التوليدية التنافسية، تُسمى الشبكات العصبية في المشفرات التلقائية المتغيرة بالمشفر والمفكك، لأن هذه التقنية تتضمن ضغط محتوى الفيديو وإعادة بنائه. يتضمن المفكك نمذجة احتمالية تحدد الاختلافات المحتملة بين المشفر والمفكك، مما يسمح له بإعادة بناء العناصر التي قد تُفقد أثناء عملية التشفير وفك التشفير. (ألدانا فاليس، 2019). تعمل الشبكات العصبية المتكررة من خلال التعرف على بنية مجموعة كبيرة من النصوص. هذه هي الطريقة المستخدمة في تطبيقات تصحيح النصوص التلقائي للهواتف. تُطبق هذه التقنيات في مشاريع متنوعة مثل GauGAN
وجهاً لوجهونموذج GPT-2. يُمكن إيجاد أحدث تطبيقات الوسائط الاصطناعية في سيري وأليكسا. يتمتع هذان المساعدان الافتراضيان الآن بالقدرة على "تحويل النص إلى صوت ومحاكاة الكلام البشري". في مقال نُشر عام 2017 بعنوان "الإباحية بمساعدة الذكاء الاصطناعي هنا، ونحن جميعًا في ورطة"، كشف موقع فايس عن تداول فيديو إباحي مزيف، وهو ليس بمشكلة لأن معظم الحبكات المصورة في الأفلام الإباحية مزيفة (يا للمفارقة!)؛ باستثناء أن الممثل كان بوجه الممثلة الشهيرة غير الإباحية، غال غادوت (المرأة الخارقة). أيضًا، في عام 2018، تم تداول "فيديو يُظهر الرئيس باراك أوباما وهو يتحدث عن مخاطر الفيديوهات المُتلاعب بها" على موقع بازفيد. الأمر الغريب في هذا الفيديو هو أن الشخص المُولّد بالذكاء الاصطناعي لديه وجه أوباما وصوت جوردان بيل، بفضل الوسائط الاصطناعية. هناك حملة مستمرة ضد الضرر المحتمل للوسائط الاصطناعية على مصداقية الأخبار؛ مع ذلك، "إلى جانب التغطية الإخبارية... تركز غرف الأخبار على كشف الوسائط المصطنعة والتحقق من صحة المعلومات. على سبيل المثال، أنشأت صحيفة وول ستريت جورنال..."
دليل غرفة الأخبار و
لجنة للكشف عن التزييف العميق. وقد نشرت صحيفة نيويورك تايمز مؤخراً
أعلن "وهذا يعني استكشاف نظام قائم على تقنية البلوك تشين لمكافحة المعلومات المضللة عبر الإنترنت." (ألدانا فاليس 2019)
خلاصة القول
قد تُساعد الوسائط الاصطناعية وكالات الأنباء على تجاوز حاجز اللغة بسلاسة، ولكنها قد تُشجع أيضًا على انتشار الأخبار الكاذبة. وبينما يستحيل منع شركات التكنولوجيا العملاقة من الخوض في أبحاث الذكاء الاصطناعي، يُمكن للصحفيين تعلّم كيفية الحدّ من الأضرار التي تُسببها هذه الوسائط.