وافقت الدول الأعضاء في الاتحاد الأوروبي الجمعة على تشريع غير مسبوق على المستوى العالمي لتنظيم الذكاء الاصطناعي بعد مفاوضات مكثفة حول التوازن بين حرية الابتكار والحفاظ على الأمن.
وأعلن سفراء الدول السبع والعشرين “بالإجماع” عن الاتفاق السياسي الذي تم التوصل إليه في ديسمبر بين الدول وأعضاء البرلمان الأوروبي، على ما أعلنت الرئاسة البلجيكية لمجلس الاتحاد الأوروبي.
وكانت المفوضية الأوروبية قدمت مشروعها الذي يحمل عنوان “قانون الذكاء الاصطناعي” في أبريل 2021.
وقد أعطاها ظهور برنامج “تشات جي بي تي” المطور من شركة “أوبن إيه آي” الناشئة في كاليفورنيا، في نهاية عام 2022، والقادر على كتابة أطروحات أو قصائد أو ترجمات في بضع ثوانٍ، بُعداً جديداً، ما ساهم في تسريع المناقشات.
وكشف هذا النظام، على غرار أنظمة أخرى قادرة على إنشاء الأصوات أو الصور، أمام عموم المستخدمين عن الإمكانات الهائلة للذكاء الاصطناعي.
ولكن هذه التكنولوجيا تترافق أيضاً مع مخاطر مختلفة، تشمل نشر صور زائفة تبدو واقعية للغاية، ما يثير مخاوف من الإمكانات الكبيرة للتلاعب بالرأي العام.
وفيما ثمة قواعد تستهدف الذكاء الاصطناعي في بلدان عدة، بينها الصين على سبيل المثال، فإن الإطار القانوني الأوروبي يتمايز لناحية نطاقه.
ورحب المفوض الأوروبي المسؤول عن هذا الملف تييري بريتون، بالتشريع “التاريخي وغير المسبوق على مستوى العالم”.
وقال بريتون الجمعة: “لقد أثار قانون الذكاء الاصطناعي اهتماماً كبيراً، لأسباب محقة! اليوم، وافقت الدول على الاتفاق السياسي الصادر في ديسمبر، معترفة بالتوازن المثالي الذي وجده المفاوضون بين الابتكار والأمن”.
الحفاظ على القدرة التنافسية
وقد أبدت باريس وبرلين حرصاً حتى النهاية على أن يحمي التشريع الشركات الناشئة المتخصصة في الذكاء الاصطناعي، حتى لا يمنع ظهور “أبطال أوروبيين” في هذا المجال في المستقبل.
وقال دبلوماسيون لوكالة فرانس برس إن المخاوف تم أخذها في الاعتبار قبل وضع اللمسات النهائية على النص. وبذلك حصل البَلدان على توضيحات بشأن تطبيقه.
يوم الثلاثاء، أعرب وزير التكنولوجيا الرقمية الألماني فولكر فيسينغ عن سروره “لأننا حققنا تحسينات للشركات الصغيرة والمتوسطة الحجم، وتجنبنا المتطلبات غير المتناسبة، وتمكنّا من أن نضمن الحفاظ على القدرة التنافسية على المستوى الدولي”.
واعتبر من جانبه وزير الاقتصاد الألماني روبرت هابيك الجمعة أن “هذا التشريع يتيح إمكان استغلال الإمكانات الهائلة للذكاء الاصطناعي، مع أخذ المخاطر في الاعتبار. وفي تطبيقه، سنؤكد على سهولة الابتكار والوضوح القانوني للشركات والحاجة إلى هياكل غير بيروقراطية”.
غير أن أوساط عالم التكنولوجيا بدت أكثر حذرا.
فقد قال المسؤول عن شؤون أوروبا في مجموعة الضغط “سي سي آي إيه” الناشطة في القطاع بونيفاس دو شامبري الجمعة إن “الكثير من هذه القواعد الجديدة لا تزال غامضة ويمكن أن تبطئ تطوير التطبيقات المبتكرة ونشرها”.
وحذر من أن تنفيذ التشريع “بشكل جيد سيكون أمراً حاسما” حتى لا يفرض “عبئا” على القدرة التنافسية.
حواجز تنظيمية
وقالت ماريان توردو بيتكر، من جمعية “فرانس ديجيتال” الناشطة في القطاع الرقمي إن التشريع “يُحدث التزامات كبيرة، على الرغم من بعض التعديلات على الشركات الناشئة والشركات الصغيرة والمتوسطة”، مبدية خشيتها من “حواجز تنظيمية إضافية ستفيد المنافسة الأميركية والصينية”.
وفي ما يتعلق بالذكاء الاصطناعي التوليدي، سيتم فرض قواعد على الجميع لضمان جودة البيانات المستخدمة في تطوير الخوارزميات والتحقق من أنها لا تنتهك تشريعات حقوق النشر. وتفرض القواعد الأوروبية على المطورين التأكد من أن الأصوات والصور والنصوص المنتجة محددة بوضوح على أنها من نتاج الذكاء الاصطناعي.
وستُطبق قيود معززة على الأنظمة “عالية المخاطر”، مرتبطة خصوصاً بالبنى التحتية الحيوية، والتعليم، والموارد البشرية، والحفاظ على النظام، إذ ستخضع لسلسلة من الالتزامات مثل توفير التحكم البشري في الآلة، أو التوثيق الفني للمؤسسة، أو تنفيذ المخاطر النظام الإداري.
وينص التشريع على إشراف محدد على أنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، مع واجب إعلام المستخدمين بذلك.
وكما الحال في القواعد الأوروبية الحالية بشأن سلامة المنتجات، يفرض النص ضوابط تعتمد في المقام الأول على الشركات.
ويتضمن التشريع محظورات قليلة، تتعلق بالتطبيقات المخالفة للقيم الأوروبية مثل تصنيف المواطنين أو أنظمة المراقبة الجماعية المستخدمة في الصين، أو تحديد الهوية البيومترية عن بعد للأشخاص في الأماكن العامة.
وفي ما يتعلق بهذه النقطة الأخيرة، حصلت الدول على إعفاءات لبعض مهام إنفاذ القانون مثل مكافحة الإرهاب.
وما زال يتعين على البرلمان الأوروبي أن يصادق بشكل نهائي على التسوية النهائية في الربيع، والتي لم يعد من الممكن تعديلها. وستُطبق قواعد معينة بعد ستة أشهر من اعتمادها، وبعد عامين بالنسبة للأحكام الأخرى.