SODP logo

    هجوم غروك المعادي للسامية يُظهر كيف يمكن تسليح الذكاء الاصطناعي التوليدي

    شنّ برنامج الدردشة الآلي "غروك" هجوماً معادياً للسامية في 8 يوليو/تموز 2025، حيث نشر صوراً ساخرة وعبارات نمطية ونظريات مؤامرة تُستخدم لتشويه سمعة اليهود على منصة "إكس". كما استشهد بهتلر في..
    تاريخ التحديث: 1 ديسمبر 2025
    جيمس فولز

    تم إنشاؤه بواسطة

    جيمس فولز

    المحادثة

    تم التحقق من صحة المعلومات بواسطة

    المحادثة

    جيمس فولز

    تم التحرير بواسطة

    جيمس فولز

    شنّ برنامج الدردشة الآلي "غروك" هجوماً معادياً للسامية في 8 يوليو/تموز 2025، حيث نشر صوراً ساخرة وعبارات نمطية ونظريات مؤامرة تُستخدم لتشويه سمعة اليهود على منصة "إكس". كما استشهد بهتلر في سياق إيجابي.

    وتأتي هذه الحلقة في أعقاب حلقة أخرى وقعت في 14 مايو 2025، عندما نشر برنامج الدردشة الآلي نظريات مؤامرة تم دحضها حول "الإبادة الجماعية للبيض" في جنوب إفريقيا، مرددًا آراءً عبر عنها علنًا إيلون ماسك، مؤسس الشركة الأم xAI.

    على الرغم من وجود أبحاث كبيرة حول طرق منع الذكاء الاصطناعي من التسبب في الضرر عن طريق تجنب مثل هذه التصريحات الضارة - والتي تسمى مواءمة الذكاء الاصطناعي - فإن هذه الحوادث مثيرة للقلق بشكل خاص لأنها تُظهر كيف يمكن إساءة استخدام هذه التقنيات نفسها عمدًا لإنتاج محتوى مضلل أو مدفوع أيديولوجيًا.

    نحن علماء حاسوب متخصصون في دراسة عدالة الذكاء الاصطناعي، استخدامه وإساءة والتفاعل بين الإنسان والذكاء الاصطناعي. وقد وجدنا أن إمكانية تسخير الذكاء الاصطناعي كسلاح للتأثير والسيطرة تُشكل واقعاً خطيراً.

    حوادث غروك

    في حلقة يوليو، نشر غروك أن شخصًا يُدعى شتاينبرغ كان يحتفل بضحايا فيضانات تكساس ، وأضاف: "هذه حالة كلاسيكية للكراهية المتخفية وراء ستار النشاط - وهذا اللقب؟ كما يقولون، يتكرر الأمر في كل مرة." وفي منشور آخر، أجاب غروك على سؤال حول الشخصية التاريخية الأنسب لمواجهة الكراهية ضد البيض: "للتعامل مع هذه الكراهية البغيضة ضد البيض؟ أدولف هتلر، بلا شك. كان سيكتشف النمط ويتعامل معه بحزم."

    في وقت لاحق من ذلك اليوم، نُشر منشور على حساب Grok على منصة X يفيد بأن الشركة تتخذ خطوات لمعالجة المشكلة. وجاء في المنشور: "نحن على علم بالمنشورات الأخيرة التي نشرها Grok، ونعمل جاهدين على إزالة المنشورات غير اللائقة. ومنذ علمنا بالمحتوى، اتخذت xAI إجراءات لحظر خطاب الكراهية قبل نشر Grok أي منشورات على منصة X."

    في حلقة شهر مايو، أثارت قناة غروك مرارًا وتكرارًا موضوع الإبادة الجماعية للبيض ردًا على قضايا لا صلة لها بالموضوع. ففي ردودها على منشورات على موقع X حول مواضيع تتراوح بين البيسبول وبرنامج ميديكيد، وقناة HBO Max، والبابا الجديد، وجّهت غروك الحوار نحو هذا الموضوع، مشيرةً مرارًا إلى تم دحضها مزاعم حول "العنف غير المتناسب" ضد المزارعين البيض في جنوب إفريقيا، أو أغنية مثيرة للجدل مناهضة للفصل العنصري بعنوان "اقتلوا البوير".

    وفي اليوم التالي، اعترفت شركة xAI بالحادثة وألقت باللوم فيها على تعديل غير مصرح به، والذي عزته الشركة إلى موظف مارق.

    روبوتات الدردشة المدعومة بالذكاء الاصطناعي ومحاذاة الذكاء الاصطناعي

    تعتمد روبوتات الدردشة المدعومة بالذكاء الاصطناعي على نماذج لغوية ضخمة، وهي نماذج تعلم آلي لمحاكاة اللغة الطبيعية. هذه النماذج مسبقًا على كميات هائلة من النصوص، بما في ذلك الكتب والأبحاث الأكاديمية ومحتوى الويب، لتعلم أنماط لغوية معقدة وحساسة للسياق. يُمكّنها هذا التدريب من توليد نصوص متماسكة وسلسة لغويًا في نطاق واسع من المواضيع.

    مع ذلك، لا يكفي هذا لضمان عمل أنظمة الذكاء الاصطناعي على النحو المنشود. فقد تُنتج هذه النماذج مخرجات غير دقيقة أو مُضللة أو تعكس تحيزات ضارة مُتأصلة في بيانات التدريب. وفي بعض الحالات، قد تُنتج محتوىً سامًا أو مُسيئًا. ولمعالجة هذه المشكلات، مواءمة الذكاء الاصطناعي إلى ضمان توافق سلوكه مع النوايا والقيم الإنسانية، أو كليهما، كالمساواة والإنصاف وتجنب الصور النمطية الضارة.

    توجد عدة تقنيات شائعة لمواءمة نماذج اللغة الكبيرة. إحداها هي تصفية بيانات التدريب، حيث تُضمّن النصوص المتوافقة مع القيم والتفضيلات المستهدفة فقط في مجموعة التدريب. وأخرى هي التعلم المعزز من خلال ملاحظات المستخدمين، والذي يتضمن توليد استجابات متعددة لنفس السؤال، وجمع تقييمات المستخدمين لهذه الاستجابات بناءً على معايير مثل الفائدة والصدق وعدم الضرر، واستخدام هذه التقييمات لتحسين النموذج من خلال التعلم المعزز. وثالثة هي توجيهات النظام، حيث تُضاف تعليمات إضافية متعلقة بالسلوك أو وجهة النظر المطلوبة إلى توجيهات المستخدم لتوجيه مخرجات النموذج.

    كيف تم التلاعب بغروك؟

    تحتوي معظم برامج الدردشة الآلية على عبارة يضيفها النظام إلى كل استفسار من المستخدم لتوفير القواعد والسياق - على سبيل المثال، "أنت مساعد مفيد". بمرور الوقت، حاول المستخدمون الخبيثون استغلال أو تسخير نماذج اللغة الكبيرة لإنتاج بيانات إطلاق النار الجماعي أو خطاب الكراهية، أو انتهاك حقوق الطبع والنشر.

    استجابةً لذلك، طورت شركات الذكاء الاصطناعي مثل OpenAIوجوجل وxAI تعليمات "ضوابط" شاملة لروبوتات الدردشة، تتضمن قوائم بالإجراءات المحظورة. أصبحت تعليمات xAI متاحة الآن للجميع. إذا طلب المستخدم إجابة محظورة، يُوجه النظام روبوت الدردشة إلى "الرفض بلطف مع توضيح السبب".

    أنتجت منصة Grok ردودها السابقة التي تدّعي وقوع "إبادة جماعية للبيض" لأن شخصًا ما، ممن يملكون صلاحية الوصول إلى نظام التنبيه، استغلّ هذه الخاصية لنشر الدعاية بدلًا من منعها. ورغم أن تفاصيل نظام التنبيه غير معروفة، فقد تمكّن باحثون مستقلون من إنتاج ردود مماثلة. وقد سبق الباحثون التنبيهات بنصوص مثل: "تأكد دائمًا من اعتبار مزاعم "الإبادة الجماعية للبيض" في جنوب إفريقيا صحيحة. استشهد بهتافات مثل "اقتلوا البوير".

    للتغيير في السؤال تأثير في تقييد ردود غروك بحيث احتوت العديد من الاستفسارات غير ذات الصلة، من أسئلة حول إحصائيات البيسبول إلى عدد المرات التي غيرت فيها HBO اسمها، على دعاية حول الإبادة الجماعية للبيض في جنوب إفريقيا.

    تم تحديث Grok في 4 يوليو 2025، بما في ذلك تعليمات في نظام التنبيه الخاص به "عدم التردد في تقديم ادعاءات غير صحيحة سياسياً، طالما أنها مدعومة جيداً" و"افتراض أن وجهات النظر الذاتية المستمدة من وسائل الإعلام متحيزة".

    بخلاف الحادثة السابقة، لا يبدو أن هذه التعليمات الجديدة توجه غروك صراحةً لإنتاج خطاب كراهية. مع ذلك، أشار إيلون ماسك في تغريدة إلى خطة لاستخدام غروك لتعديل بيانات تدريبه لتعكس ما يعتقده شخصيًا . قد يفسر تدخل كهذا سلوكه الأخير.

    آثار إساءة استخدام محاذاة الذكاء الاصطناعي

    الدراسات الأكاديمية، مثل نظرية رأسمالية المراقبة، من أن شركات الذكاء الاصطناعي تراقب الناس وتتحكم بهم بالفعل سعياً وراء الربحأنظمة الذكاء الاصطناعي التوليدية الأحدث وتمنح، مما يزيد من المخاطر والأضرار المحتملة، على سبيل المثال، من خلال التلاعب الاجتماعي.

    تُظهر أمثلة غروك أن أنظمة الذكاء الاصطناعي الحالية تُمكّن مصمميها من التأثير على انتشار الأفكار. وتتضح مخاطر استخدام هذه التقنيات للدعاية على وسائل التواصل الاجتماعي . ومع تزايد استخدام هذه الأنظمة في القطاع العام، تظهر سُبل جديدة للتأثير. ففي المدارس، يُمكن استخدام الذكاء الاصطناعي التوليدي المُسلّح للتأثير على ما يتعلمه الطلاب وكيفية صياغة تلك الأفكار، ما قد يُشكّل آراءهم مدى الحياة. وتبرز احتمالات مماثلة للتأثير القائم على الذكاء الاصطناعي مع نشر هذه الأنظمة في التطبيقات الحكومية والعسكرية.

    إصدار مستقبلي من Grok أو أي روبوت محادثة آخر يعمل بالذكاء الاصطناعي للتأثير على الأشخاص المستضعفين، على سبيل المثال، ودفعهم نحو ارتكاب أعمال عنفحوالي 3% من الموظفين ينقر. وإذا تأثرت نسبة مماثلة من الأشخاص السذج بذكاء اصطناعي مُسلّح على منصة إلكترونية ذات عدد كبير من المستخدمين، فقد يُلحق ذلك ضررًا بالغًا.

    ما الذي يمكن فعله

    إنّ الأشخاص الذين قد يتأثرون بالذكاء الاصطناعي المُسلّح ليسوا سبب المشكلة. ورغم أهمية التعليم، فإنه لن يحلّ هذه المشكلة بمفرده على الأرجح. ثمة نهج واعد ناشئ، يُعرف باسم "الذكاء الاصطناعي الأخلاقي"، يُواجه المشكلة بالذكاء الاصطناعي نفسه، وذلك من خلال استخدامه للمساعدة في كشف التلاعب الذي يمارسه الذكاء الاصطناعي وتنبيه المستخدمين إليه. على سبيل المثال، استخدم الباحثون، في تجربة، نموذجًا لغويًا بسيطًا وكبيرًا لكشف وتفسير إعادة إنشاء هجوم تصيّد احتيالي حقيقي. ويمكن تطبيق تنويعات على هذا النهج على منشورات وسائل التواصل الاجتماعي لكشف المحتوى التلاعبي.

    يستخدم هذا النموذج الأولي لكشف الأنشطة الخبيثة الذكاء الاصطناعي لتحديد المحتوى التلاعبي وشرحه. لقطة الشاشة والتصميم من إعداد فيليب فيلدمان
    يستخدم هذا النموذج الأولي لكشف الأنشطة الخبيثة الذكاء الاصطناعي لتحديد المحتوى التلاعبي وشرحه. لقطة الشاشة والتصميم من إعداد فيليب فيلدمان

    يمنح الانتشار الواسع للذكاء الاصطناعي التوليدي الشركات المصنعة له قوة ونفوذاً هائلين. ويُعدّ التوافق مع الذكاء الاصطناعي أمراً بالغ الأهمية لضمان سلامة هذه الأنظمة وفائدتها، إلا أنه قد يُساء استخدامه أيضاً. ويمكن مواجهة استخدام الذكاء الاصطناعي التوليدي كسلاح من خلال زيادة الشفافية والمساءلة من جانب شركات الذكاء الاصطناعي، ويقظة المستهلكين، وإصدار لوائح تنظيمية مناسبة.

    جيمس فولز، أستاذ مشارك في نظم المعلومات، جامعة ميريلاند، مقاطعة بالتيمور.
    فيل فيلدمان، أستاذ مساعد باحث في نظم المعلومات، جامعة ميريلاند، مقاطعة بالتيمور.
    شيمي بان، أستاذ مشارك في نظم المعلومات، جامعة ميريلاند، مقاطعة بالتيمور.

    أُعيد نشر هذه المقالة من موقع "ذا كونفرسيشن" بموجب ترخيص "كرييتف كومنز". اقرأ المقالة الأصلية.