الرئيسية > منوعات > كيف تستعدّ المنصات الاجتماعية لسنة الانتخابات والتضليل في كل مكان؟

كيف تستعدّ المنصات الاجتماعية لسنة الانتخابات والتضليل في كل مكان؟

" class="main-news-image img

يرى خبراء أن تداعيات الذكاء الاصطناعي على حملات وانتخابات عام 2024 ستكون كبيرة بقدر ما هي مثيرة للقلق، إذ لا يمكن للذكاء الاصطناعي التوليدي إنتاج رسائل بريد إلكتروني أو نصوص أو مقاطع فيديو بشكل سريع فحسب، بل يمكن استخدامه أيضا لتضليل الناخبين وانتحال شخصية المرشحين وتقويض الانتخابات على نطاق واسع.

 

و يشير الخبراء إلى أن هذا المحتوى المزيف والمُنشأ رقميا بخوارزميات قوية عندما يتم ربطه بوسائل التواصل الاجتماعي، سيكون من السهل أن ينتشر بشكل واسع وبسرعة ويستهدف جماهير محددة للغاية، ما قد يعزز الحيل والأهداف غير الشريفة للحملات الانتخابية.

 

وانتشرت على الإنترنت مقاطع فيديو مزيفة لمرشحين للانتخابات الرئاسية في إندونيسيا وخطابات الكراهية الموجه ضد المسلمين الهنود، وكان هذا جزءا من تزايد المعلومات المضللة على وسائل التواصل الاجتماعي قبل سنة الانتخابات، فيما يقول خبراء إن منصات التكنولوجيا ليست مستعدة لهذا التحدي.

 

ويتوجه الناخبون في بنغلاديش وإندونيسيا وباكستان والهند إلى صناديق الاقتراع خلال السنة الحالية، إذ ستشهد أكثر من 50 دولة انتخابات، بما في ذلك الولايات المتحدة حيث يتطلع الرئيس السابق دونالد ترامب إلى العودة إلى البيت الأبيض.

 

و تقول رينا تشاندران في تقرير نشرته مؤسسة تومسون رويترز إنه رغم المخاطر العالية والأدلة التي تنشرها استطلاعات الرأي السابقة حول كيفية تأثير المحتوى المزيف عبر الإنترنت على الناخبين، يرى خبراء الحقوق الرقمية إن منصات التواصل الاجتماعي غير مستعدة للارتفاع المؤكد في المعلومات المضللة وخطاب الكراهية.

 

 

وترى الخبيرة في سلامة المنصات سابهاناز رشيد ضياء أن عمليات التسريح الأخيرة في شركات التكنولوجيا الكبرى، والقوانين الجديدة لمراقبة المحتوى عبر الإنترنت التي تقيد المشرفين، وأدوات الذكاء الاصطناعي التي تسهل نشر المعلومات المضللة قد تضر بالبلدان الفقيرة أكثر.

 

وأشارت إلى أن الأوضاع تدهورت منذ الدورة الانتخابية الأخيرة في العديد من البلدان، حيث أصبحت الجهات الفاعلة التي تسيء استخدام المنصات أكثر تعقيدا، ولكن الموارد اللازمة لمعالجتها لم تطور.

 

وأكّدت أن الأولويات تغيرت نتيجة للتسريح الجماعي للعمال واللوائح الجديدة التي يجب على المنصات الامتثال لها، حيث يعني هذا تراجع الموارد الكافية لمعالجة المحتوى الأوسع ونزاهة الانتخابات استباقيا.

 

وترى أن ذلك سيؤثر على الجنوب العالمي بشكل غير متناسب، حيث أنه لا يتلقى نفس القدر من الموارد من شركات التكنولوجيا.

 

وتسهّل أدوات الذكاء الاصطناعي التوليدية، مثل “دال-إي” و”ميدجورني” و”ستايبلديفيوجن”، إنشاء مزيف عميق مقنع. وينتشر لذلك القلق بشأن كيفية استغلال هذه المواد لتضليل الناخبين.

 

واعتُمد بالفعل التزييف العميق لخداع الناخبين من نيوزيلندا والأرجنتين والولايات المتحدة. وتحاول السلطات لمواكبة التكنولوجيا بينما تعد باتخاذ إجراءات صارمة ضد المعلومات المضللة.

 

 

كما ستقام انتخابات البرلمان الأوروبي في يونيو. ويطلب الاتحاد الأوروبي من شركات التكنولوجيا وضع علامات واضحة على الإعلانات السياسية وتحديد الذي دفع مقابلها. وتحظر قواعد تكنولوجيا المعلومات في الهند نشر المعلومات المضللة، وهوما أكّدته وزارة الاتصالات وتكنولوجيا المعلومات خلال الشهر الماضي.

 

وقالت شركة غوغل إنها تخطط لوضع تصنيفات على المحتوى الذي ينشئه الذكاء الاصطناعي والإعلانات السياسية التي تعتمد مواد معدلة رقميا.

 

وستطبّق هذه الخطوة على كل منصاتها، بما في ذلك على يوتيوب. كما تخطط للحد من الاستفسارات الانتخابية التي يمكن لروبوت الدردشة بارد والبحث المستند إلى الذكاء الاصطناعي الإجابة عنها.

 

وقال متحدث باسم يوتيوب إن الفرق التي تركز على تغطية الانتخابات على المنصة تراقب التطورات في الوقت الفعلي، بما في ذلك من خلال اكتشاف الاتجاهات في المحتوى الحساس ومعالجتها بالشكل المناسب قبل أن تتطور إلى مشاكل أكبر.

 

وقالت شركة ميتا المالكة لفيسبوك وواتساب وإنستغرام إنها ستمنع الحملات السياسية والمعلنين من استخدام منتجات الذكاء الاصطناعي التوليدية في الإعلانات.

 

وقال متحدث باسم ميتا إن الشركة وضعت إستراتيجية شاملة للانتخابات، وتتضمن اكتشاف الخطاب المحرض للكراهية والعنف، والحد من انتشار المعلومات المضللة، وفرض شفافية الإعلانات السياسية، والشراكة مع السلطات لاتخاذ إجراءات بشأن المحتوى الذي ينتهك القوانين.

 

ولم ترد إكس، المعروفة سابقا بتويتر، على طلب للتعليق على إجراءاتها لمعالجة المعلومات المضللة المتعلقة بالانتخابات. كما لم تستجب منصة تيكتوك المحظورة في الهند.

 

النقد الافتراضي والعنف

Thumbnail

خلّفت المعلومات المضللة على وسائل التواصل الاجتماعي عواقب حقيقية قبل الانتخابات السابقة وبعدها. وكان هذا اتجاها تكرر في العديد من الدول التي سيتوجه فيها الناخبون إلى صناديق الاقتراع خلال السنة الحالية.

 

وارتفع التضليل والدعوات إلى العنف على شبكات التواصل الاجتماعي بعد نتيجة انتخابات 2019 في إندونيسيا، التي ستشهد انتخابات جديدة بتاريخ 14 فبراير. وقُتل ما لا يقل عن ستة أشخاص في الاضطرابات التي تجلّت في العالم الحقيقي.

 

ومن المقرر إجراء انتخابات وطنية يوم 8 فبراير في باكستان. وسبق أن انتشر خطاب الكراهية والمعلومات المضللة على وسائل التواصل الاجتماعي قبل الانتخابات العامة التي أجرتها في 2018، وهو حدث تخللته سلسلة من التفجيرات التي أودت بحياة العشرات من الأشخاص.

 

وأدت الاشتباكات العنيفة التي تلت اعتقال أنصار رئيس الوزراء السابق المسجون عمران خان خلال العام الماضي، إلى إغلاق الإنترنت وحجب منصات التواصل الاجتماعي. وألقي القبض على بطل الكريكيت السابق خان بتهم فساد خلال 2022، وحكم عليه بالسجن لمدة ثلاث سنوات.

 

وقالت نوريانتي جالي، الأستاذة المساعدة في جامعة ولاية أوكلاهوما الأميركية، إن شركات وسائل التواصل الاجتماعي طوّرت خوارزمياتها الهادفة لمعالجة المعلومات الخاطئة والمضللة، لكن فعالية هذه الأدوات قد تبقى محدودة بسبب الفروق الدقيقة المحلية وتعقيدات اللغات الأخرى غير الإنجليزية.

 

وأشارت إلى أن الانتخابات الأميركية الحاسمة والأحداث العالمية مثل الصراع بين إسرائيل وحماس والحرب الروسية الأوكرانية يمكن أن “تستنزف الموارد والتركيز الذي كان يمكن تخصيصه للتحضير للانتخابات في مناطق أخرى”.

 

واندلعت احتجاجات عنيفة في بنغلاديش خلال الأشهر التي سبقت انتخابات 7 يناير. وقاطع حزب المعارضة الرئيسي الانتخابات وفازت رئيسة الوزراء الشيخة حسينة بولاية رابعة على التوالي.

 

وتعدّ فيسبوك أكبر منصة وسائط اجتماعية في البلاد، حيث سجّلت أكثر من 44 مليون مستخدم. وحددت دراسة حديثة أجرتها شركة الأبحاث التقنية ديجيتال يرايت أنها تخطئ في تصنيف الإعلانات السياسية ووضعها في إطارها السليم. ويكشف هذا عن ثغرات في عملية التحقق المعتمدة.

 

وكشف تقرير منفصل نشره معهد ديا العالمي للتكنولوجيا الشهر الماضي عن مدى صعوبة تحديد الانتماء بين صفحات ومجموعات فيسبوك والحزبين السياسيين الرئيسيين في بنغلاديش أو معرفة ما يشكل “معلومات موثوقة” من أي من الحزبين.

 

غير مستعدة

Thumbnail

تراجعت ميتا وإكس وكذلك ألفابت المالكة لغوغل خلال 2023 عن 17 سياسة رئيسية على الأقل كانت مصممة للحد من خطاب الكراهية والمعلومات المضللة. وسرحت أكثر من 40 ألف شخص، بما في ذلك الفرق التي حافظت على سلامة المنصة، حسبما أوردته منظمة فري برس الأميركية غير الربحية في تقرير نشرته في ديسمبر.

 

وأشارت محامية الحقوق المدنية نورا بينافيديز في التقرير إلى إجراء العشرات من الانتخابات الوطنية في جميع أنحاء العالم في 2024، وكتبت أن التزامات نزاهة المنصة تشهد اليوم أهمية غير مسبوقة، لكنها تعتبر شركات وسائل التواصل الاجتماعي الكبرى غير مستعدة للدورات الانتخابية المقبلة.

 

وأكّدت أن افتقار المنصات إلى السياسات والفرق الحيوية في مهمة الإشراف على المحتوى المخالف يخاطر بتضخيم الارتباك، وتقويض مشاركة الناخبين، وخلق فرص للتلاعب بالشبكة لتآكل المؤسسات الديمقراطية.

 

وقال خبراء التكنولوجيا إن بعض الحكومات استجابت لهذا النقص الملحوظ في السيطرة بتفعيل قوانين تقييدية، لكن ذلك قد يؤدي إلى الإفراط في فرض الإشراف على المحتوى.

 

وصعّدت الهند، التي تتوقع فوز رئيس الوزراء ناريندرا مودي بولاية ثالثة، مطالب إزالة المحتوى. كما قدمت للشركات أحكاما للمسؤولية الفردية، وحذرتها من أنها قد تفقد الحماية من المسؤولية عن محتوى الطرف الثالث إذا لم تمتثل.

 

وقالت ضياء إن “الالتزام القانوني يضع ضغوطا إضافية على المنصات… ستفرط المنصة في التنفيذ عن غير قصد إذا كانت حمايتها في خطر، مما قد يدفعها إلى إزالة الكثير من المحتوى”.

 

ويرى رامان جيت سينغ شيما، وهو مدير سياسة آسيا في منظمة أكسس ناو غير الربحية، أن القضية تكمن في الإعداد، حيث فشلت شركات التكنولوجيا الكبرى في التعامل مع المجتمع المدني قبل الانتخابات ولم تقدم معلومات كافية باللغات المحلية.

 

وقال إن “المنصات الرقمية أصبحت أكثر أهمية في هذه الدورة الانتخابية، لكنها لم تصمم لهذه العمليات السياسية وتفتقر إلى الشفافية في إجراءاتها للتخفيف من الأضرار”. واعتبر الوضع مثيرا للقلق.


الحجر الصحفي في زمن الحوثي