تعهدت كبرى شركات التكنولوجيا في العالم بمحاربة المحتوى “المخادع” الناتج عن الذكاء الاصطناعي والذي يتدخل في الانتخابات العالمية هذا العام، مع تزايد المخاوف بشأن تأثير المعلومات المضللة على الديمقراطية.
كانت أمازون وغوغل وميتا ومايكروسوفت وتيك توك وأوبن إيه آي من بين 20 شركة تقنية قالت خلال مؤتمر ميونيخ للأمن إنها ستعمل معًا لمكافحة إنشاء ونشر المحتوى المصمم لتضليل الناخبين، مثل الصور ومقاطع الفيديو “المزيفة بعمق” والصوت.
وبحسب تقرير نشرته صحيفة “فاينانشال تايمز” البريطانية، فإنه:
- وفقاً للاتفاق الطوعي الذي وقعته الشركات، فإن التطور السريع للذكاء الاصطناعي “يخلق فرصاً جديدة وتحديات للعملية الديمقراطية”.
- كما أن انتشار المحتوى المخادع يمكن أن “يعرض نزاهة العمليات الانتخابية للخطر”.
ونقل التقرير عن رئيس الشؤون العالمية في شركة ميتا، نيك كليج، قوله: مع إجراء عديد من الانتخابات الكبرى هذا العام، من المهم أن نفعل ما في وسعنا لمنع خداع الناس بالمحتوى الناتج عن الذكاء الاصطناعي.. “هذا العمل أكبر من أية شركة واحدة وسيتطلب جهدًا كبيرًا عبر الصناعة والحكومة والمجتمع المدني”.
وأضاف نائب رئيس مجلس إدارة مايكروسوفت، براد سميث، أن الشركات لديها “مسؤولية المساعدة في ضمان عدم استخدام هذه الأدوات كسلاح في الانتخابات”.
يأتي الاتفاق في سياق المخاوف المتصاعدة بين المشرعين والخبراء بشأن احتمالية تعريض الذكاء الاصطناعي التوليدي للانتخابات رفيعة المستوى المقرر إجراؤها هذا العام، بما في ذلك في الولايات المتحدة والمملكة المتحدة والهند.
- واجهت شركات التكنولوجيا التي تدير منصات التواصل الاجتماعي الكبرى مثل فيسبوك وتيك توك وإكس، تدقيقًا لسنوات حول وجود محتوى ضار على مواقعها وكيفية معالجتها.
- لكن الاهتمام المتزايد بأدوات الذكاء الاصطناعي التوليدية وتوافرها أدى إلى إثارة المخاوف بشأن الكيفية التي قد تؤدي بها التكنولوجيا إلى تقويض الانتخابات على وجه الخصوص.
- في يناير، أُرسلت مكالمة آلية إلى الناخبين الأميركيين في نيو هامبشاير يُزعم أنها من الرئيس جو بايدن تدعوهم إلى عدم التصويت في الانتخابات التمهيدية.
- وفي العام الماضي، تم العثور على مقاطع مزيفة لسياسيين يُزعم أنها تم إنشاؤها باستخدام الذكاء الاصطناعي ثم انتشرت عبر الإنترنت في المملكة المتحدة والهند ونيجيريا والسودان وإثيوبيا وسلوفاكيا.
وقالت شركات التكنولوجيا العشرين التي وقعت اتفاق على هامش مؤتمر ميونخ أخيراً إنها ستعمل “بشكل تعاوني” على أدوات للقضاء على انتشار محتوى الذكاء الاصطناعي الضار المرتبط بالانتخابات على منصاتها، وستتخذ إجراءات بطرق “سريعة ومتناسبة”.
- يمكن أن تشمل الجهود إضافة علامات مائية إلى الصور التي توضح مصدرها وما إذا كانت قد تم تغييرها، على سبيل المثال.
- تعهدت الشركات أيضًا بالشفافية بشأن كيفية تعاملها مع مثل هذا المحتوى المخادع، وقالت إنها ستقيم نماذج الذكاء الاصطناعي التوليدية الخاصة بها – مثل تلك التي تقف وراء برنامج الدردشة الآلي ChatGPT التابع لشركة OpenAI – لفهم المخاطر المتعلقة بالانتخابات التي قد تشكلها بشكل أفضل.
- تعد الاتفاقية الأحدث في سلسلة من الالتزامات الطوعية حول الذكاء الاصطناعي التي تعهدت بها شركات التكنولوجيا الكبرى في الأشهر الأخيرة.
- وفي العام الماضي، وافقت المجموعات بما في ذلك أوبين إيه آي وغوغل وميتا، على إخضاع نماذج الذكاء الاصطناعي التوليدية الخاصة بها للمراجعة من قبل معهد سلامة الذكاء الاصطناعي البريطاني.
- هذا الشهر، كجزء من مبادرة الصناعة للانضمام إلى التحالف من أجل مصدر المحتوى والأصالة، قالت غوغل إنها “تستكشف بنشاط” ما إذا كان يمكنها طرح أدوات العلامات المائية التي توضح كيفية إنشاء الصورة.
- قالت ميتا أيضًا الشهر الجاري إنها ستبدأ في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي ينشرها المستخدمون على فيسبوك وإنستجرام وثريدس “في الأشهر المقبلة”.
التزييف العميق
أخصائي التطوير التكنولوجي، هشام الناطور، أكد أن استخدام تطبيقات التزييف العميق في الانتخابات، لا يأتي من خلال تزييف فيديو أو صوت فقط، لكنه أكبر بكثير من هذا الأمر “لقد وصلنا اليوم لاستعمال بصمة صوتية، أو نسخ وجوه تتحدث بصوت نفس الأشخاص بنصوص مختلفة، مما وصل لأقصى درجات التزييف”.
وعن الإجراءات التي يمكن لشركات التكنولوجيا اتباعها لمواجهة التزييف العميق المتسبب به الذكاء الاصطناعي، قال الناطور في تصريحات خاصة لموقع “اقتصاد سكاي نيوز عربية”، إنها تتمثل في:
- تطوير أدوات للكشف عن المحتوى المزيف، من خلال تحليل خصائص الصور والفيديوهات لتحديد علامات التزييف، مثل تطابق درجات الإضاءة وحركات الوجه.
- مع ضرورة تعليم المستخدمين كيفية التعرف على المحتوى المزيف. ونشر الوعي وإقامة ورش عمل ودورات توعوية حول مخاطر التزييف.
- مكن الضرورة القصوى أن تدعم شركات التكنولوجيا الأبحاث في الكشف عن التزييف.
وشدد أخصائي التطوير التكنولوجي على ضرورة وجود شفافية ومساءلة في استخدام تقنية الذكاء الاصطناعي.
وعن مشاركة الذكاء الاصطناعي وشركات التكنولوجيا في العملية الانتخابية، قال الناطور: إنه من المواضيع المثيرة للجدل، في ظل عديد من التساؤلات حول التأثير المحتمل لهذه المشاركة على الديمقراطية والمجتمع، فمن الممكن أن نراعي تأثير الذكاء الاصطناعي على الرأي العام من خلال التزييف العميق ونشر معلومات مضللة، أو استخدامه لإنشاء محتوى معدل، يظهر به المرشحون أو القضايا السياسية بشكل سلبي أوإيجابي بشكل غير مبرر، ويتم استخدام ذلك من قبل الخصوم بالانتخابات لمصالح كل طرف على حساب الطرف الآخر، لتحديد واستهداف الناخبين للتصويت لمرشح معين، وإنشاء رسائل إعلانية مخصصة ترسل إلى الناخبين عبر البريد الإلكتروني أو وسائل التواصل الاجتماعي.
وتابع: شركات التكنولوجيا تؤثر على الوصول للمعلومات، فهي تلعب دورًا رئيسيا في الحصول على المعلومات من خلال مواقع التواصل الاجتماعي، ويمكن للشركات استخدام الخوارزميات لتطبيق ذلك، منتقدًا عدم وجود قوانين واضحة تحكم وجود الذكاء الاصطناعي وشركات التكنولوجيا بالعمليات الانتخابية، فضلا عن وجود مخاطر للاستخدام غير المسؤول للذكاء الاصطناعي:
- من الممكن أن يؤثر ذلك على التلاعب بالانتخابات والتأثير على نتائجها، وزعزعة استقرار الديمقراطية والثقة بالانتخابات.
- يمكن استخدام الذكاء الاصطناعي لإنشاء حسابات وهمية على وسائل التواصل الاجتماعي لنشر معلومات مضللة والتحريض على نشر الكراهية والطائفية بالبلدان العربية أو الشحن العرقي بالدول الأوروبية.
- مشاركة الذكاء الاصطناعي في العملية الانتخابية تتطلب مزيدًا من البحث والدراسة، ويفضل وجود قوانين صارمة وحادة تحكم ذلك.
واستطرد: يُمكن لأنظمة الذكاء الاصطناعي التلاعب بالانتخابات من خلال اختراق أنظمة التصويت أو نشر معلومات مضللة على نطاق واسع، مثل ما حدث في اتهام روسيا بالتدخل في العملية الانتخابية الأميركية خلال عام 2016، لافتًا إلى أن الذكاء الاصطناعي يؤثر على مشاركة الناخبين، فيمكن استخدامه لتقليل أو زيادة مشاركة الناخبين بالانتخابات، وتشجيعهم أو تثبيطهم، فهو سلاح ذو حدين، مثل حملة الرئيس الأميركي الحالي جو بايدن استخدمت تقنية الذكاء الاصطناعي من خلال زيادة مشاركة الناخبين من خلال رسائل إعلانية مخصصة.
الكثير من السلبيات
من جانبه، يقول رئيس مجلس إدارة شركة “آي دي تي” للاستشارات والنظم، محمد سعيد، إن التزييف العميق من الممكن أن تنتج عنه سلبيات كثيرة ليس فقط في الانتخابات؛ فمن الممكن إنتاج فيديوهات مزيفة لأي شخص، ويمكن استخدام تلك التطبيقات في السياسة سواء في أوقات الانتخابات أو غيرها، ويمكن استخدامها في عمليات الاحتيال لتحقيق مكاسب مادية، وبالتالي فإن “فكرة الاحتيال باستخدام التزييف العميق لها مخاطر واستخدامات أكثر بكثير من الانتخابات”، على حد وصفه.
وأكد سعيد، في تصريحات خاصة لموقع “اقتصاد سكاي نيوز عربية”: بدأ يظهر بعض الجهود البحثية في التفريق بين الصور والفيديوهات (..) وبما أن فكرة التزييف في الفيديوهات ما زالت فكرة جديدة، فالمزيفة يمكن اكتشافها، باستخدام البرمجيات الحديثة، لكن شركة “أوبن إيه آي” أعلنت منذ أيام عن منتج جديد يحمل اسم ” إس أوه آر إيه”، ويتم إطلاقه قريبًا، ومن المتوقع أن عملية الكشف عن الفيديوهات المزيفة تزداد صعوبة بسبب قربها من الحقيقية، ويكون من الصعب الحكم على صحة الفيديوهات.
وتطرق للحديث حول آلية الكشف عن التزييف، قائلا:
- يتمثل ذلك في إطلاق برامج توعية كبيرة للجمهور.
- مع وجود منظمات مسؤولة عن تدقيق المادة الإعلامية المنشورة.
- توافر جهود دولية للعاملين في مجال التكنولوجيا للعمل على إنتاج تقنيات وبرمجيات للتفرقة بين الفيديوهات المزيفة والحقيقية.
وعن مدى جاهزية التكنولوجيا والذكاء الاصطناعي للمشاركة بإيجابية في العملية الانتخابية، شدد على أن من المؤكد أن ترفع التكنولوجيا بشكل كبير من أداء العملية الانتخابية، والسياسة ككل، لكونها تعطي دقة وسرعة وشفافية، وبالتالي فالمنتج التكنولوجي قادر على تحسين أداء العملية السياسية وبالتحديد الانتخابية.