Close Menu
خليجي – Khalegyخليجي – Khalegy
    فيسبوك X (Twitter) الانستغرام
    أخبار شائعة
    • أمين مجلس التعاون الخليجي يستنكر التصريحات الإيرانية
    • زامير: الخط الأصفر هو "الحدود الجديدة" بين إسرائيل وغزة
    • الأخضر يختتم تحضيراته استعدادًا لمواجهة المنتخب المغربي سعيًا لحسم الصدارة
    • أكسيوس: اجتماع إسرائيلي قطري في نيويورك لإصلاح العلاقات
    • نتنياهو: بعد 80 عاما من المحرقة نعمل للدفاع عن ألمانيا
    • الكويت تسحب الجنسية من طارق السويدان
    • اعتصام مفتوح في عدن للمطالبة بحق تقرير المصير
    • جامعة جازان تُتوّج بلقب بطولة الاتحاد السعودي للرياضة الجامعية لكرة القدم
    فيسبوك X (Twitter) الانستغرام بينتيريست RSS
    خليجي – Khalegyخليجي – Khalegy
    • الرئيسية
    • اعمال
    • التكنولوجيا
    • لايف ستايل
    • الرياضة
      • محلي
      • عربي
      • دولى
    • العالمية
    • سياسة
    • علم
    خليجي – Khalegyخليجي – Khalegy
    أعمال

    ما هي مخاطر الذكاء الاصطناعي إذا وصلت إلى الأيدي الخاطئة؟

    خليجيخليجي10 مايو، 2024لا توجد تعليقات4 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    يخشى كثيرون من الاستخدام الضار للذكاء الاصطناعي..أرشيف

    ذكرت رويترز الأربعاء أن إدارة الرئيس الأميركي جو بايدن تستعد لفتح جبهة جديدة في جهودها لحماية الذكاء الاصطناعي المطور في الولايات المتحدة من الصين وروسيا عبر خطط أولية لتأمين أكثر نماذجه تطورا.

    ويخشى باحثون من الحكومة والقطاع الخاص من أن أعداء واشنطن قد يستخدمون هذه النماذج، التي تحلل كميات هائلة من النصوص والصور لتلخيص المعلومات وتوليد المحتوى، في شن هجمات رقمية شديدة أو حتى في تصنيع أسلحة بيولوجية ناجعة.

    ماهي أبرز التهديدات التي يشكلها الذكاء الاصطناعي:

    1) التزييف العميق والتضليل المعلوماتي

    – يظهر التزييف العميق على مواقع التواصل الاجتماعي، فيخلط بين الحقيقة والخيال في عالم السياسات الأميركية القائم على الاستقطاب.
    – التزييف العميق هو مقاطع فيديو تبدو واقعية لكنها غير حقيقية أنشأتها خوارزميات الذكاء الاصطناعي المدربة على مقاطع فيديو كثيرة عبر الإنترنت.
    – على الرغم من توفر هذه الوسائط المولدة رقميا منذ عدة سنوات، فقد استفحلت قدراتها على مدى العام المنصرم بفعل مجموعة من أدوات “الذكاء الاصطناعي التوليدي” الجديدة مثل أداة (ميد جيرني) التي تجعل إنشاء مقاطع تزييف عميق مقنعة أمرا يسيرا ورخيص التكلفة.
    – قال باحثون في تقرير بمارس إن من الممكن استخدام شركات مثل (أوبن إيه.آي) و(مايكروسوفت) أدوات إنشاء الصور التي تعمل بالذكاء الاصطناعي في توليد صور قد تروّج لمعلومات مضللة ذات صلة بالانتخابات وبالتصويت، وذلك على الرغم من وجود سياسات في كلتا الشركتين لمكافحة إنشاء المحتوى المضلل.
    – تستغل بعض حملات التضليل المعلوماتي بكل بساطة قدرة الذكاء الاصطناعي على محاكاة المقالات الإخبارية الحقيقية كوسيلة لنشر المعلومات الزائفة.
    – قالت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 إنه في العام الماضي على سبيل المثال روّج موقع إخباري صيني يستخدم منصة ذكاء اصطناعي توليدي ادعاء زائفا كان متداولا في وقت سابق ومفاده أن الولايات المتحدة تدير مختبرا في كازاخستان لتصنيع أسلحة بيولوجية لتستخدمها في مواجهة الصين.
    – ذكر جيك سوليفان مستشار الأمن القومي بالبيت الأبيض خلال فعالية للذكاء الاصطناعي في واشنطن يوم الأربعاء، أن المشكلة ليس لها حل سهل لأنها تجمع بين قدرة الذكاء الاصطناعي و”نية جهات رسمية وغير رسمية لاستخدام التضليل المعلوماتي على نطاق كبير في تخريب الديمقراطيات وترويج الدعاية وتشكيل الوعي في العالم”.

    2) أسلحة بيولوجية

    • يتزايد قلق مجتمع المخابرات ومراكز البحوث والسلك الأكاديمي في الولايات المتحدة إزاء مخاطر تشكلها جهات أجنبية عدائية تملك حق الوصول إلى قدرات الذكاء الاصطناعي المتطورة.
    • أشار باحثون في شركة (غريفون ساينتيفيك) ومؤسسة (راند) البحثية إلى أن نماذج الذكاء الاصطناعي المتطورة يمكنها تقديم معلومات من شأنها المساعدة في تصنيع أسلحة بيولوجية.
    • درست “غريفون” كيفية استخدام جهات عدائية النماذج اللغوية الكبيرة في إلحاق الضرر في مجال علوم الحياة، وخلصت إلى أنها “قادرة على تقديم معلومات قد تدعم جهة شريرة في إنشاء سلاح بيولوجي من خلال تقديم معلومات مفيدة ودقيقة وتفصيلية في كل خطوة من خطوات هذا المسار”.
    • النماذج اللغوية الكبيرة هي برامج كمبيوتر تستعين بمجموعات ضخمة من النصوص لتوليد ردود على الاستفسارات.
    • خلصت “غريفون” إلى أن أي نموذج لغوي كبير قد يوفر على سبيل المثال معلومات يصل مستواها إلى ما بعد مرحلة الدكتوراه لحل مشكلات تطرأ خلال العمل على فيروس قادر على نشر وباء.
    • أظهرت مؤسسة (راند) البحثية أن النماذج اللغوية الكبيرة قد تسهم في التخطيط لهجوم بيولوجي وتنفيذه، وخلصت إلى أن أي نموذج لغوي كبير قد يقترح، على سبيل المثال، أساليب لنثر مادة البوتوكس السامة في الهواء.

    3) أسلحة رقمية
    – أفادت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 بأن الجهات الرقمية من المرجح أن تستخدم الذكاء الاصطناعي في “تطوير أدوات جديدة لتمكين شن هجمات رقمية أوسع نطاقا وأكثر سرعة وكفاءة ومراوغة” على البنية التحتية الحساسة، بما في ذلك خطوط أنابيب النفط والغاز والسكك الحديدية.
    – أوضحت الوزارة أن الصين وجهات معادية أخرى تطور تكنولوجيا ذكاء اصطناعي من شأنها تقويض الدفاعات الرقمية الأميركية، بما في ذلك برامج الذكاء الاصطناعي التوليدي التي تدعم هجمات البرمجيات الخبيثة.
    – بينت “مايكروسوفت” في تقرير بفبراير أنها تعقبت جماعات تسلل إلكتروني تابعة للحكومتين الصينية والكورية الشمالية، بالإضافة إلى المخابرات الحربية الروسية والحرس الثوري الإيراني، في ظل محاولتها إحكام هجماتها عبر الإنترنت بالاستعانة بالنماذج اللغوية الكبيرة.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقدودة في دماغه وتسمم بالزئبق.. سجل طبي مثير لمرشح رئاسي أمريكي
    التالي ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟
    خليجي
    • موقع الويب

    المقالات ذات الصلة

    تقرير: أوكرانيا على "حافة الانهيار" وبوتين لن يتراجع

    7 ديسمبر، 2025

    برمان: الخليج يقود التحول الأخضر برؤية تجارية واضحة

    5 ديسمبر، 2025

    جلال: طلب غير مسبوق على معدات الذكاء الاصطناعي عالمياً

    5 ديسمبر، 2025
    اترك تعليقاً إلغاء الرد

    آخر الأخبار

    أمين مجلس التعاون الخليجي يستنكر التصريحات الإيرانية

    7 ديسمبر، 2025

    زامير: الخط الأصفر هو "الحدود الجديدة" بين إسرائيل وغزة

    7 ديسمبر، 2025

    الأخضر يختتم تحضيراته استعدادًا لمواجهة المنتخب المغربي سعيًا لحسم الصدارة

    7 ديسمبر، 2025

    أكسيوس: اجتماع إسرائيلي قطري في نيويورك لإصلاح العلاقات

    7 ديسمبر، 2025

    نتنياهو: بعد 80 عاما من المحرقة نعمل للدفاع عن ألمانيا

    7 ديسمبر، 2025
    فيسبوك X (Twitter) الانستغرام بينتيريست Tumblr RSS
    • من نحن
    • اتصل بنا
    • سياسة الخصوصية
    © 2025 جميع الحقوق محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter