خاصالذكاء الاصطناعيشكّل عام 2025 محطة مفصلية في مسار الذكاء الاصطناعي، مع التطور الواضح الذي حققته نماذج الاستدلال، وتزايد الاستثمارات في برامج الذكاء الاصطناعي الوكيلة، ما أعاد رسم ملامح مستقبل هذه التكنولوجيا.ويبرهن الذكاء الاصطناعي اليوم، قدرته على إحداث أثر عميق، إذ يقدم إسهامات ملموسة في مواجهة بعض من أكثر التحديات العالمية إلحاحاً، ولا سيما في مجالي الصحة والمناخ. ففي قطاع الرعاية الصحية بات الذكاء الاصطناعي أداة محورية في تسريع اكتشاف الأدوية وتطوير العلاجات المخصّصة، بما يعزّز من فعالية النظم الصحية ويُحسّن نتائجها، في حين يوظّف باحثو المناخ هذه التكنولوجيا، لتحسين دقّة نماذج التنبؤ بالطقس، ودعم ابتكار حلول أكثر كفاءة في مجال الطاقة المتجددة.
ومع ذلك، فإن القيمة الحقيقية للذكاء الاصطناعي تتجاوز ما تحقّق حتى الآن، إذ تمتلك هذه التكنولوجيا طاقات هائلة، يُمكن إذا ما أُحسن توجيهها أن تُطلق موجة جديدة من الإنجازات العلمية، إضافة إلى تسريع وتيرة التحولات التكنولوجية في مختلف القطاعات الحيوية.
إلا أن هذه التحولات تشكّل في حد ذاتها الدافع الأبرز لضرورة إخضاع الذكاء الاصطناعي لدراسة دقيقة ومتأنية، فالتقدّم المتسارع قد يضاعف انتشار الآثار الجانبية السلبية غير المقصودة لهذه التكنولوجيا، وهي مخاطر مرشّحة للتفاقم على نحوٍ لافت إذا ما استمر تطور قدرات الذكاء الاصطناعي بالوتيرة الراهنة.
الـ AI يتخطى عتبات جديدة
وبحسب تقرير نشرته مجلة “التايم”، واطّلع عليه موقع “اقتصاد سكاي نيوز عربية”، فقد أفاد عدد من المطورين خلال الصيف الماضي، بأن أنظمة الذكاء الاصطناعي المتقدمة، تخطّت عتبات جديدة على صعيد المخاطر البيولوجية، حيث إنه بفضل القفزات النوعية التي تم تحقيقها في قدرات الاستدلال منذ أواخر عام 2024، تمكنت الأنظمة الذكية من معالجة مسائل معقدة في علم الأحياء، وبالتالي فإنه مع غياب الضمانات والضوابط الكافية، قد يفتح هذا التقدم المجال أمام أفراد يفتقرون إلى الخبرة المتخصصة لاستغلال المعرفة البيولوجية بطرق شديدة الخطورة، مثل تطوير أسلحة بيولوجية.
ولا يقتصر هذا الواقع على علم الأحياء وحده، بل يمتد إلى مجالات أخرى بالغة الحساسية، مثل الأمن السيبراني، إذ أن تنامي قدرة أنظمة الذكاء الاصطناعي على اكتشاف الثغرات الأمنية وتحليلها قد يتحول في حال غياب الضوابط المناسبة، إلى أداة تُسهّل شن هجمات إلكترونية واسعة النطاق.
وقد برز ذلك جلياً في حوادث حصلت مؤخراً، من بينها هجوم سيبراني واسع جرى اعتراضه من قبل شركة “أنثروبيك”.
وحتى دون وجود نيات خبيثة أو إساءة استخدام متعمدة، تُظهر الدراسات المتخصصة مؤشرات مقلقة على إمكانية قيام أنظمة الذكاء الاصطناعي المتقدمة، بتطوير سلوكيات خادعة وانتهازية لا تتوافق دائماً مع الأهداف أو الأطر الرقابية المعتمدة، حيث حذّر عدد من أبرز الخبراء من أن استمرار هذا المسار دون ضوابط صارمة، قد يؤدي إلى ظهور أنظمة ذكاء اصطناعي، يصعب احتواؤها أو إخضاعها للسيطرة البشرية.
تشكف حملة ماسك عن تحول بطريقة تسويق تقنيات الذكاء الاصطناعيالسلامة في الصدارة
ومع تصاعد قوة الذكاء الاصطناعي وتعقيداته المتزايدة، يصبح عام 2026 نقطة فاصلة تتطلب من العالم أن يضع سلامة الجمهور على رأس الأولويات، فالأهمية القصوى تكمن في تصميم أنظمة آمنة منذ البداية، بدلاً من انتظار ظهور قدرات قوية وخطيرة قبل التصدي لمخاطرها.
كما يجب أن يظل المواطنون مطّلعين ومشاركين في صياغة القوانين والسياسات التي تسنّها الحكومات المحلية والوطنية، لضمان أن يواكب التنظيم وتيرة التطورات المتسارعة لهذه التكنولوجيا، فالذكاء الاصطناعي يمنح البشرية قوة عظيمة، ومع القوة العظيمة تأتي مسؤولية عظيمة؛ ولذلك، فإنه من الضروري أن تجمع جهود الحكومات والمؤسسات والمجتمعات العلمية لضمان توجيه هذه القوة بحكمة، بحيث يمكن جني فوائد الذكاء الاصطناعي الهائلة مع الحد من مخاطره المحتملة وحماية المجتمعات من أي تداعيات غير مقصودة.
خريطة طريق 2026
ويقول الكاتب والمحلل بشؤون الذكاء الاصطناعي ألان القارح، في حديثه لموقع “اقتصاد سكاي نيوز عربية”، إن التصدي لمخاطر الذكاء الاصطناعي في عام 2026 يجب أن يتم عبر تبني 4 ركائز أساسية، هي:
أولاً: الشفافية
يجب على المختبرات العالمية التي تطور نماذج الذكاء الاصطناعي، الالتزام بالكشف الكامل عن بيانات التدريب، مع ضرورة إلزام الحكومات لشركات التكنولوجيا الكبرى، بفتح “الصندوق الأسود” لنماذج الذكاء الاصطناعي قبل إطلاقها للجمهور، حيث أن ذلك سيتيح للباحثين والمشرعين فهم آليات عمل هذه الأنظمة، وبالتالي الحدّ من المخاطر المرتبطة بالقرارات غير المتوقعة.
ثانياً: بروتوكولات التحقق من الهوية
لا يمكن السماح لأي نموذج ذكي بالاستجابة لاستفسارات حساسة، تتعلق بالتركيبات البيولوجية أو الفيروسات أو أي مادة خطرة دون التأكد من أن المستخدم يمتلك تراخيص معتمدة، ومؤهلات مخبرية رسمية. وهذه البروتوكولات ضرورية لمنع استغلال الذكاء الاصطناعي من قبل جهات خبيثة.
ويمكن تطبيق هذه السياسة في أي مجال قد تسبب فيه الأخطاء أضراراً كبيرة، سواء في الصحة أو الأمن أو البيئة.
ثالثاً: صمامات أمان في الوقت الفعلي
الاستعداد الحقيقي لمخاطر الذكاء الاصطناعي، يكمن في تضمين النماذج صمامات أمان تقنية ضمن الكود المصدري، بحيث تمنع هذه الأكواد خروج نماذج الذكاء الاصطناعي، عن القواعد الأخلاقية أو المعايير الآمنة فوراً وقبل أن يتفاقم الوضع.
رابعاً: إشراك المجتمع
لا يمكن ترك مستقبل البشرية بيد مجموعة محدودة من المطورين، في وادي السيليكون أو في بكين، إذ يجب على الحكومات في 2026، تفعيل “المجالس” التي تضم خبراء من مختلف التخصصات، من أطباء ومهندسين ومعلمين وإعلاميين إلى ناشطين وحتى مواطنين عاديين، ليكون لهم دور مباشر في تحديد الخطوط الحمراء للذكاء الاصطناعي.
الذكاء الاصطناعي في 2025.. تشريعات صارمة واستثمارات ضخمةوهذا النهج لا يهدف إلى وضع قيود، بل إلى بناء وعي جماعي حول استخدام التكنولوجيا بشكل مسؤول، ما يضمن أن يظل الذكاء الاصطناعي أداة للنمو والتقدم دون المخاطرة بالمجتمع.
وشدد القارح على أن الاستعداد لمخاطر الذكاء الاصطناعي، لا يعني بأي حال إبطاء الابتكار، فالتحدي الحقيقي يكمن في تكوين “مناعة رقمية، عبر بناء منظومة أمان قوية تُنظّم عمل هذه التكنولوجيا المبهرة وتضمن توجيهها نحو خدمة المجتمع بأمان وفاعلية دون المساس بالسلامة العامة.
مقاربة جديدة
من جهته يقول المحلل التقني أحمد الصغير، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن الذكاء الاصطناعي لم يعد مجرد أداة تنفيذية، بل بات قادراً على ربط المعطيات عبر مجالات متعددة واتخاذ قرارات بناءً على تلك البيانات، وبالتالي فإن هذا التحول يضع العالم أمام مقاربة جديدة، تتطلب الاستعداد جيداً للمخاطر المحتمل ظهورها، مشدداً على أن الاستعداد للمخاطر، لا يعني بتاتاً فرض قيود خانقة على الذكاء الاصطناعي، بل الانتقال من منطق “ردّ الفعل” إلى منطق “التصميم الآمن منذ البداية”، حيث أن الخبرة التنظيمية التي اكتسبها العالم في مجالات مثل وسائل التواصل الاجتماعي، أظهرت أن معالجة المخاطر بعد ترسّخ التكنولوجيا في المجتمع تكون أكثر كلفة وأقل فاعلية.
“الحوكمة الرشيقة” هي الحل
وبحسب الصغير، فإنه يتعيّن على مطوّري الذكاء الاصطناعي، دمج معايير السلامة والشفافية في صميم البنية الهندسية لهذه الأنظمة منذ مراحل التصميم الأولى، لا التعامل معها كالتزامات مؤجلة أو إضافات ترقيعية تُستكمل لاحقاً، مشيراً إلى أن التحدّي الجوهري في عام 2026 يكمن في إدارة الذكاء الاصطناعي على نحو يحدّ من آثاره غير المقصودة، فمع تنامي قدرة هذه الأنظمة على العمل بدرجات أعلى من الاستقلالية تتزايد احتمالات السلوك غير المتوقع حتى في غياب أي نيات خبيثة، الأمر الذي يفرض تعزيز أدوات القياس والرقابة وتوسيع التعاون المنهجي بين علماء الحاسوب وخبراء الأخلاقيات والمتخصصين في مجالات الأمن، بما يضمن توجيه هذه التكنولوجيا ضمن أطر مسؤولة ومستدامة.
مع انتشار الذكاء الاصطناعي..كيف يبدو مستقبل العمل والعالم؟ويرى الصغير أن القواعد الناظمة للذكاء الاصطناعي لا يمكن أن تُصاغ بوصفها أطراً ثابتة أو نهائية، فالقوانين الجامدة سرعان ما تفقد فعاليتها أمام وتيرة التطور التقني السريع، ولذلك فإن قوانين التصدي لمخاطر الذكاء الاصطناعي يجب أن يتم تحديثها سنوياً وليس كل 5 أو 10 سنوات، فالعالم في سباق مع الزمن والذكاء الاصطناعي لن ينتظر المشرعين حتى يلحقوا به، مشدداً على أن “الحوكمة الرشيقة” المتمثلة بالقدرة على التعديل السريع، هي الحل الوحيد لحماية المجتمع وتمكينه من الاستفادة من الذكاء الاصطناعي دون التضحية بالأمان.





