` `

ما مخاطر الذكاء الاصطناعي التوليدي على الانتخابات في عام 2024؟

محمود سمير حسنين محمود سمير حسنين
تكنولوجيا
8 مارس 2024
ما مخاطر الذكاء الاصطناعي التوليدي على الانتخابات في عام 2024؟
تستهدف المعلومات المضللة المولدة الناخبين في أكثر من 50 دولة عام 2024 (Getty)

هذا المقال مترجم عن تقرير لمجلة ساينتفك أميركان

لم تعد خطابات الكراهية والدعاية السياسية مشاكل جديدة على الإنترنت، رغم أنّ سنوات الانتخابات، مثل 2024، قد تزيد من تفاقمها. سهّل الاستخدام المتزايد للروبوتات أو حسابات مواقع التواصل الاجتماعي الآلية نشر المعلومات المضللة بشكل متعمّد، بالإضافة إلى الإشاعات وأصناف أخرى من المعلومات المضلّلة.

كانت الروبوتات التي استخدمت في استحقاقات انتخابية سابقة، بدائية وتولد جملًا وتعليقات قصيرة وغير مترابطة. لكن الوضع بات مختلفًا اليوم، فمع توفّر برامج توليد النصوص وتصحيحها لغويًا عن طريق الذكاء الاصطناعي، يخشى بعض الباحثين أن الحسابات الآلية على مواقع التواصل الاجتماعي، ستصبح قريبًا أكثر فاعلية وواقعية مما سبق، وبالتالي أكثر إقناعًا للمستخدمين.

مقال في مجلة العلوم الأميركية حول تأثير محتمل لروبوتات الذكاء الاصطناعي في الانتخابات عام 2024
مقال في مجلة العلوم الأميركية حول تأثير محتمل لروبوتات الذكاء الاصطناعي في الانتخابات عام 2024

وفق دراسة جديدة نشرت على موقع بي إن أي إس نيكسوس البريطاني، من المتوقع أن تزيد حملات التضليل ومنشورات المتصيّدين عبر الإنترنت وغيرهم من “المستخدمين السلبيين”.

ويتوقع باحثون من جامعة جورج واشنطن الأميركية، أن يساعد الذكاء الاصطناعي في نشر محتوى سام على منصات التواصل الاجتماعي بشكل يومي تقريبًا، طوال عام 2024، ما قد يؤثر على نتائج الانتخابات في أكثر من 50 دولة تجري فيها انتخابات هذه السنة، بداية بالهند ووصولاً إلى الولايات المتحدة.

وسلطت الدراسة الضوء على الاتصال الدائر بين مجموعات "المستخدمين السلبيين"، عبر مراقبة 23 منصة على الإنترنت تشمل فيسبوك وإكس بالإضافة إلى وسائل تواصل اجتماعي بديلة مثل ديسكورد.

يقول نيل جونسون، أستاذ الفيزياء في جامعة جورج واشنطن والباحث الرئيسي القائم على الدراسة، إنّ المجموعات المتطرفة التي تنشر الكراهية بكثافة، تميل إلى التشكل والبقاء لفترات أطول على المنصات المهمشة التي تفتقر بطبيعة الحال إلى رقابة على عكس غيرها من المنصات الأخرى. لكن رسائلهم يمكن أن تصل إلى نطاق أوسع بكثير.

ويضيف جونسون أنّ "العديد من هذه المنصات الصغيرة متشابكة داخليًا بينها وبين بعضها البعض بشكل لا يصدق". مما يتيح للتضليل أن يتردد بسرعة فائقة، مثل منتديات شان 4 ومواقع الويب الأخرى ذات الرقابة الضعيفة. 

كما حذر الباحث من أن تسرّب المحتوى السام من هذه الشبكات إلى مواقع التواصل الاجتماعي الرئيسية، مثل يوتيوب، قد تؤثر على مليار مستخدم.

ويقول زيف ساندرسون، وهو المدير التنفيذي لمركز نيويورك لوسائل الإعلام الاجتماعية والسياسة في جامعة نيويورك، إن وسائل التواصل الاجتماعي خفضت تكلفة نشر المعلومات الخاطئة أو المعلومات بشكل عام"، وإنّ "الذكاء الاصطناعي يقلّل تكلفة إنتاجها الآن".

ويضيف زيف قائلًا "الآن، سواء كنت مستخدمًا سلبيًّا فرديًّا، أو جزءً من حملة داخلية صغيرة، أصبح بإمكانك استخدام هذه التقنيات لإنتاج محتوى قد يكون مقنعًا إلى حد ما."

أظهرت بعض الدراسات المختصة في التضليل المعلوماتي، التي أجريت حول انتخابات سابقة، كيف يمكن للحسابات الآلية بشكل عام نشر محتوى ضار عبر وسائل التواصل الاجتماعي، وبالتالي التلاعب بالمناقشات الدائرة بين المستخدمين، مما يقلّل من الثقة في هذه المنصات. 

كانت الحسابات الآلية سابقًا تنشر الرسائل المضلّلة المولّدة من طرف مستخدم أو من خلال برنامج ما وتكرّرها، ولكن نماذج توليد اللّغات الكبيرة الحالية تزيد من قدرات هذه الحسابات، لتولد نصوصًا بإمكانها إقناع مستخدمي مواقع التواصل الاجتماعي.

تقول عالمة الاجتماع الحاسوبي كاثلين كارلي من جامعة كارنيجي ميلون، إن "الخطر لا يكمن في الذكاء الاصطناعي وحده، بل ما يمكن للحسابات الآلية فعله من خلال الذكاء الاصطناعي"، وأضافت أنّه يمكن أيضًا استخدام الذكاء الاصطناعي ونماذج اللغة الكبيرة لكتابة البرمجيات المعقدة، مما يسهل على المبرمجين عملية الترميز وبالتالي توليد حسابات آلية بشكل أكبر.

ويضيف يلون دو، طالب دكتوراه يدرس نمذجة الذكاء الاصطناعي في مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، أنّ العديد من الحسابات الآلية كانت تقتصر فقط على توليد جمل قصيرة نسبيًا، لكن ومع تطور الذكاء الاصطناعي، بات بإمكانها الآن صياغة تعليقات من جمل طويلة ومعقدة. 

ويوضح دو أيضًا، أنّ كشْف الصور أو مقاطع الفيديو المولّدة بواسطة الذكاء الاصطناعي، أضحى في الوقت الحالي أسهل من كشف النصوص، لأنّه "عليك أن تولد صورة مثالية، ومعظم هذه الأدوات في الواقع غير دقيقة من حيث الإضاءة أو العوامل المؤثرة الأخرى على الصور.

ولا تزال هناك بعض الخصائص التي يمكن أن يتقصى الخبراء الكتابة المولدة بواسطة الذكاء الاصطناعي من خلالها: مثلاً، قواعد اللغة التي قد تكون مثالية للغاية، عدم استخدام اللغة العامية، اللغة العاطفية، أو التفاصيل الدقيقة.

ومعلقة على ذلك تقول كارلي إن “برمجيات الكتابة التي تظهر ما هو مولد من قبل البشر وما هو صناعي، والقائمة على هذا النوع من الاختبارات، ذات تكاليف باهظة”.

على الرغم من أن فريقها الخاص عمل على برامج لتحديد محتوى الحسابات الآلية على منصات التواصل الاجتماعي المختلفة، إلا أنها تقول إن الأدوات غير كافية. ويجب إعادة برمجة كل برنامج بالكامل ليعمل على موقع ويب مختلف. وترجئ كارلي السبب، لأن الأشخاص على موقع إكس على سبيل المثال، يتواصلون بطرق مختلفة عن تلك التي يتواصل بها مستخدمو موقع فيسبوك وهكذا دواليك.

وعليه يشكك العديد من الخبراء في فاعلية كشف برامج الذكاء الاصطناعي - تلك التي تحلل النصوص وتتحرى العلامات الدالة على تدخل برمجيات لغوية معقدة في توليدها، وإن كانت قادرة على تحديد المحتوى المولد اصطناعيًا بشكل كافٍ. فإضافة علامة مائية للمواد، أو مرشحات وحواجز داخل نماذج الذكاء الاصطناعي ذاتها، لا يمكن أن تغطي كل الجوانب أيضًا.

تقول كارلي إننا " في سباق تسلح ضد المستخدمين السلبيين عند الحديث عن عصر استخدام الذكاء الاصطناعي ونشر المعلومات المضللة"، وتضيف أنه "فور ابتكارنا طريقة للكشف عن كيفية التضليل، يبتكرون طريقة لتخطيها".

وجد جونسون وزملاؤه أيضًا أن "المستخدمين السلبيين" بإمكانهم إساءة استخدام النسخ الأساسية للذكاء الاصطناعي التوليدي، مثل شات جي بي تي 2، المتوفرة بحرية للجمهور، وتحتوي على رقابة أقل صرامة من النماذج الحالية الأكثر تطورًا لنفس البرنامج ومن هو على شاكلته.

ويتنبأ باحثون آخرون بأن المحتوى المضلل، لن يتم توليده باستخدام الذكاء الاصطناعي المتطور التابع للشركات الكبيرة في الفترة القادمة، ولكن بدلًا من ذلك سيتم توليده بواسطة أدوات مفتوحة المصدر عمل عليها عدد قليل أو مبرمجون مستقلون.

لكن ستتمكن الحسابات الآلية من التطور بالتزامن مع هذه النسخ البسيطة من الذكاء الاصطناعي.حيث لوحظ في بعض تجارب الانتخابات السابقة، أن شبكات الحسابات الآلية منتشرة بفاعلية على مواقع التواصل الاجتماعي المهمشة وغير الرئيسة. لكن بعض الخبراء يتوقعون انتشار المعلومات المضللة المولدة بواسطة الذكاء الاصطناعي بشكل أوسع بكثير أثناء الانتخابات في سنة 2024، ليس فقط لأن الذكاء الاصطناعي يمكن أن ينتج المحتوى بشكل أسرع؛ بل بسبب تغير ديناميكيات استخدام وسائل التواصل الاجتماعي، أيضًا.

يوضح ساندرسون أن "معظم وسائل التواصل الاجتماعي التي رأيناها تستند إلى الشبكات الأساسية للأصدقاء والمتابعين والرسوم البيانية الاجتماعية، حتى منصة تيك توك كانت تقوم بذلك، وكان من المعتاد أن يتابع الأشخاص مستخدمين آخرين يتماشون معهم في بعض الخصائص".

يشير ساندرسون أيضًا أن تيك توك يستخدم بدلًا من ذلك، خوارزميات تشارك محتوى من حسابات لا يتابعها المستخدمون، وقد قامت منصات أخرى بتغيير خوارزمياتها لمواكبة ذلك الأمر. مما يتضمن عرض مواضيع " تحاول من خلالها المنصة اكتشاف ما إذا كان المستخدم مهتما بها أم لا"، مما يؤدي إلى "شبكة أوسع بكثير من استهلاك المحتوى".

قام مساعدو ساندرسون في الدراسات السابقة، بالبحث حول الحسابات الآلية على منصة إكس، وعملوا على تصنيف الحساب كآلي أو لا من خلال التدقيق في نشاط حسابه، بما في ذلك الصور والنصوص التي ينشرها أو يعيد نشرها، حيث يضيف إن الأمر "كان أشبه باختبار تورنغ على الحسابات الآلية". 

ويعتقد ساندرسون أنه مع التطور التدريجي في إمكانيات توليد الذكاء الاصطناعي على إزالة الأخطاء اللغوية الشائعة، والدلات الأخرى التي تشير إلى استخدام الذكاء الاصطناعي في توليد المحتوى، ستقع مسؤولية تحديد هذه الحسابات على عاتق شركات مواقع التواصل الاجتماعي، فلدى هذه الشركات القدرة على التحقق من البيانات الوصفية المرتبطة بالحسابات، والتي نادرًا ما يتمكن الدخلاء من الوصول إليها.

وعليه يعتقد بعض خبراء مكافحة الإشاعات، أنه “بدلاً من البحث عن المحتوى الزائف نفسه، وجب العثور على الأشخاص الذين يولدونها، واحتوائهم”. معتبرين أنّها “مقاربة أكثر عملية”. فكما يقترح دو، يمكن أن تعمل التدابير الوقائية الفعالة، من خلال كشف نشاط بعض العناوين التعريفية للأجهزة، أو التركيز عندما يكون هناك عدد كبير من المنشورات المشبوهة في وقت معين من اليوم.

كما تؤكد كارلي، أنه يمكن أن تعمل هذه الطريقة بشكل فعال لأن هناك "عددًا أقل من المولدين للمعلومات المضلّلة مقارنة بالمحتوى المضلل، حيث ينشط ناشرو الإشاعات في بعض الأجزاء على شبكة الإنترنت دون غيرها". 
مضيفة "نحن على علم بأن الكثير من المعلومات المضللة تأتي عبر عدد قليل من المواقع الرئيسية المرتبطة ببعضها البعض، وذلك أن محتوى تلك المواقع يتولد بواسطة نماذج لغوية كبيرة". وأوضحت “إذا استطعنا كشف الموقع المضلل في حد ذاته، نقوم بذلك باكتشاف مجموعة هائلة من مروجي المعلومات المضللة."

بالإضافة إلى ذلك، يتفق كارلي وجونسون على أن التعامل مع المحتوى على مستوى المجموعات الصغيرة على مواقع التواصل الاجتماعي، مثل منشورات من أعضاء صفحات فيسبوك معينة أو قنوات تليغرام، سيكون أكثر فعالية من السياسات العامة التي تحظر فئات كاملة من المحتوى.

فساندرسون وزملاؤه يرفضون المبالغة في الأضرار المحتملة، على الرغم من المخاوف المنطقية إثر استخدام أدوات الذكاء الاصطناعي وتأثيرها السلبي على الانتخابات، مؤكدين “لم نخسر كل شيء أمام الحسابات الآلية بعد”.

ويستطرد ساندرسون “الخوف الذي يشغلني هو أننا سنقضي الكثير من الوقت في محاولة تحديد ما إذا كان هناك شيء ما يحدث ونفترض أننا نعرف تأثيره، بل يمكن أن يكون الحال أن التأثير ليس كبيرًا للغاية، وأن أكبر تأثير هو الخوف منه، لذا ننتهي بتقليص الثقة في نظام المعلومات، فقط”.

اقرأ/ي أيضًا 

أبرز الشائعات التي طاولت الرئيس الأميركي جو بايدن خلال فترة رئاسته

هل وضع علامة مائية على المحتوى المولّد بالذكاء الاصطناعي كافٍ لمنع التضليل؟

الأكثر قراءة