Close Menu
خليجي – Khalegyخليجي – Khalegy
    فيسبوك X (Twitter) الانستغرام
    أخبار شائعة
    • مقتل سيف الإسلام القذافي.. هل يغير قواعد اللعبة في ليبيا؟
    • واشنطن توافق على طلب إيران نقل المحادثات من تركيا
    • ليبيا.. النائب العام يبدأ التحقيق في اغتيال نجل القذافي
    • البيت الأبيض: محادثات بين واشنطن وطهران هذا الأسبوع
    • ترامب: نتفاوض مع إيران الآن
    • فريق سيف الإسلام القذافي يكشف ملابسات مقتله ويطالب بالتحقيق
    • إسرائيل تعلن مقتل فلسطيني وإصابة آخرين في عملية بمنطقة أريحا
    • لانا الوريكات: القمة العالمية للحكومات توحد الجهود الإنسانية
    فيسبوك X (Twitter) الانستغرام بينتيريست RSS
    خليجي – Khalegyخليجي – Khalegy
    • الرئيسية
    • اعمال
    • التكنولوجيا
    • لايف ستايل
    • الرياضة
      • محلي
      • عربي
      • دولى
    • العالمية
    • سياسة
    • علم
    خليجي – Khalegyخليجي – Khalegy
    أعمال

    تنقية الذكاء الاصطناعي من التحيز.. هل يمكن تحقيقها؟

    خليجيخليجي19 مايو، 2024لا توجد تعليقات4 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    أدى الذكاء الاصطناعي المبني على جبال من المعلومات المتحيزة المحتملة إلى خلق خطر حقيقي يتمثل في أتمتة التمييز، وسط تساؤلات حول إمكانية إعادة تعليم الآلات وتزويدها بالمعلومات الصحيحة غير المتحيزة.

    ففي عصر تشات جي بي تي هذا وأمثاله من التطبيقات، سيعمل الذكاء الاصطناعي على اتخاذ المزيد والمزيد من القرارات لمقدمي الرعاية الصحية أو مقرضي البنوك أو المحامين، وذلك باستخدام كل ما لديه من مصادر معلومات توافرت له عبر الإنترنت.

    وبالتالي فإن الذكاء الأساسي للذكاء الاصطناعي لا يختلف عن العالم الذي جاء منه، ومن المرجح أن يكون مليئاً بالذكاء والحكمة والمنفعة، وأيضاً بالكراهية والتحيز.

    وقال جوشوا ويفر، مدير إحدى الشركات الاستشارية القانونية: «إنه أمر خطير لأن الناس يتبنون برامج الذكاء الاصطناعي ويعتمدون عليها حقاً».

    وقال: «يمكننا الدخول في حلقة ردود الفعل هذه حيث يؤدي التحيز في أنفسنا وثقافتنا إلى التحيز في الذكاء الاصطناعي ويصبح حلقة من حلقات تعزيز هذا الأمر».

    أمثلة على التحيز

    الاستخدامات المتنوعة للذكاء الاصطناعي، مثل التعرف على الوجه، شهدت مواجهة الشركات مع السلطات بسبب التمييز.

    كان هذا هو الحال ضد رايت-أيد، وهي سلسلة صيدليات أميركية، حيث قامت الكاميرات الموجودة في المتجر بوضع علامات زائفة على المستهلكين، وخاصة النساء والأشخاص الملونين، على أنهم لصوص متاجر، وفقاً للجنة التجارة الفيدرالية.

    يشعر الخبراء بالقلق من أن الذكاء الاصطناعي التوليدي على غرار تشات جي بي تي، والذي يمكنه خلق ما يشبه التفكير على المستوى البشري في ثوانٍ معدودة، يفتح فرصاً جديدة لجعل الأمور أسوء.

    يدرك عمالقة الذكاء الاصطناعي المشكلة جيداً، ويخشون أن تنحدر نماذجهم إلى سلوك سيئ، أو تعكس بشكل مفرط المجتمع الغربي عندما تكون قاعدة مستخدميهم عالمية.

    ولتوضيح المشكلة بشكل أوضح يقول ساندر بيتشاي، الرئيس التنفيذي لشركة غوغل إن الشركة تحصل على استفسارات من إندونيسيا أو الولايات المتحدة للحصول على صور أطباء أو محامين من تطبيقها المدعم بالذكاء الاصطناعي جيميني والذي من المفترض أن يراعي التنوع العرقي.

    لكن هذه الاعتبارات من الممكن أن تصل إلى مستويات سخيفة وتؤدي إلى اتهامات غاضبة بالإفراط.

    وهو ما حدث عندما قام تطبيق غوغل بإخراج صورة لجنود ألمان من الحرب العالمية الثانية، والتي تضمنت بشكل سخيف رجلاً أسود وامرأة آسيوية بحجة عدم التمييز.

    وتعليقاً على تلك الواقعة قال بيتشاي إنه «من الواضح أن الخطأ كان أننا بالغنا في تطبيقه.. حيث لم يكن من المفترض أن يحدث أبداً».

    مسار خاطئ

    لكن ساشا لوتشيوني، عالمة الأبحاث في هاغينغ فيس، وهي منصة رائدة لنماذج الذكاء الاصطناعي، حذرت من أن «التفكير في وجود حل تكنولوجي للتحيز هو نوع من السير في المسار الخاطئ بالفعل».

    وقالت إن الذكاء الاصطناعي التوليدي يدور بشكل أساسي حول ما إذا كان الإخراج «يتوافق مع ما يتوقعه المستخدم منه» وهذا أمر ذاتي إلى حد كبير.

    وحذر جايدن زيغلر، رئيس قسم المنتجات في شركة أليمبيك تكنولجيز، من أن النماذج الضخمة التي بُني عليها تشات جي بي تي «لا يمكنها التفكير فيما هو متحيز أو غير متحيز، لذا لا يمكنهم فعل أي شيء حيال ذلك».

    في الوقت الحالي على الأقل، يعود الأمر للبشر للتأكد من أن الذكاء الاصطناعي يولد كل ما هو مناسب أو يلبي توقعاتهم.

    ولكن بالنظر إلى الهوس بالذكاء الاصطناعي، فإن هذه ليست مهمة سهلة.

    لدى هاغينغ فيس نحو 600 ألف نموذج للذكاء الاصطناعي أو التعلم الآلي متاحة على منصتها.

    قال لوتشيوني: «كل أسبوعين، يظهر نموذج جديد ونحن نتدافع من أجل محاولة تقييم وتوثيق التحيزات أو السلوكيات غير المرغوب فيها».

    إحدى الطرق قيد التطوير هي ما يسمى التفكيك الخوارزمي الذي يسمح للمهندسين بحذف المحتوى، دون تدمير النموذج بأكمله.

    ولكن هناك شكوك جدية في إمكانية نجاح هذا الأمر بالفعل.

    وقال رام سريهارشا، كبير مسؤولي التكنولوجيا في بنكون، إن هناك طريقة أخرى من شأنها «تشجيع» النموذج على السير في الاتجاه الصحيح، و«تحسينه»، و«المكافأة على الصواب والخطأ».

    وبنكون تعد متخصصة في تقنية تساعد نموذج الذكاء الاصطناعي على جلب المعلومات من مصدر ثابت موثوق.

    بالنسبة إلى جوشوا ويفر، مدير إحدى الشركات الاستشارية القانونية، فإن هذه المحاولات «النبيلة» لإصلاح التحيز هي «توقعات لآمالنا وأحلامنا لما يمكن أن تبدو عليه النسخة الأفضل للمستقبل».

    وأضاف أن التحيز «متأصل لدى الإنسان، ولهذا السبب، فهو أيضاً متأصل في الذكاء الاصطناعي».

    (أ ف ب )

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقالمكسيك.. العثور على أربع جثث إحداها لمرشح لانتخابات محلية
    التالي محمد بن سليم يبرم اتفاقية تعاون بين«فيا» و «الفورمولا1»
    خليجي
    • موقع الويب

    المقالات ذات الصلة

    لماذا يصعب كسر قبضة الصين على المعادن النادرة؟

    3 فبراير، 2026

    8.7 مليار دولار إيرادات "باي بال" الأميركية في الربع الأخير

    3 فبراير، 2026

    صادرات السلع الصينية تربك اقتصادات أميركا اللاتينية

    3 فبراير، 2026
    اترك تعليقاً إلغاء الرد

    آخر الأخبار

    مقتل سيف الإسلام القذافي.. هل يغير قواعد اللعبة في ليبيا؟

    4 فبراير، 2026

    واشنطن توافق على طلب إيران نقل المحادثات من تركيا

    4 فبراير، 2026

    ليبيا.. النائب العام يبدأ التحقيق في اغتيال نجل القذافي

    4 فبراير، 2026

    البيت الأبيض: محادثات بين واشنطن وطهران هذا الأسبوع

    4 فبراير، 2026

    ترامب: نتفاوض مع إيران الآن

    4 فبراير، 2026
    فيسبوك X (Twitter) الانستغرام بينتيريست Tumblr RSS
    • من نحن
    • اتصل بنا
    • سياسة الخصوصية
    © 2026 جميع الحقوق محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter