Close Menu
خليجي – Khalegyخليجي – Khalegy
    فيسبوك X (Twitter) الانستغرام
    أخبار شائعة
    • أكسيوس: اجتماع إسرائيلي قطري في نيويورك لإصلاح العلاقات
    • نتنياهو: بعد 80 عاما من المحرقة نعمل للدفاع عن ألمانيا
    • الكويت تسحب الجنسية من طارق السويدان
    • اعتصام مفتوح في عدن للمطالبة بحق تقرير المصير
    • جامعة جازان تُتوّج بلقب بطولة الاتحاد السعودي للرياضة الجامعية لكرة القدم
    • فيديو.. انفجار قرب فندق "فورسيزون" في دمشق
    • نتنياهو: لن نتخلى عن السيادة الأمنية من نهر الأردن إلى البحر
    • فانيسا أنطونيوس: NEOUS علامة هادئة في عالم الرفاهية
    فيسبوك X (Twitter) الانستغرام بينتيريست RSS
    خليجي – Khalegyخليجي – Khalegy
    • الرئيسية
    • اعمال
    • التكنولوجيا
    • لايف ستايل
    • الرياضة
      • محلي
      • عربي
      • دولى
    • العالمية
    • سياسة
    • علم
    خليجي – Khalegyخليجي – Khalegy
    أعمال

    تنقية الذكاء الاصطناعي من التحيز.. هل يمكن تحقيقها؟

    خليجيخليجي19 مايو، 2024لا توجد تعليقات4 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    أدى الذكاء الاصطناعي المبني على جبال من المعلومات المتحيزة المحتملة إلى خلق خطر حقيقي يتمثل في أتمتة التمييز، وسط تساؤلات حول إمكانية إعادة تعليم الآلات وتزويدها بالمعلومات الصحيحة غير المتحيزة.

    ففي عصر تشات جي بي تي هذا وأمثاله من التطبيقات، سيعمل الذكاء الاصطناعي على اتخاذ المزيد والمزيد من القرارات لمقدمي الرعاية الصحية أو مقرضي البنوك أو المحامين، وذلك باستخدام كل ما لديه من مصادر معلومات توافرت له عبر الإنترنت.

    وبالتالي فإن الذكاء الأساسي للذكاء الاصطناعي لا يختلف عن العالم الذي جاء منه، ومن المرجح أن يكون مليئاً بالذكاء والحكمة والمنفعة، وأيضاً بالكراهية والتحيز.

    وقال جوشوا ويفر، مدير إحدى الشركات الاستشارية القانونية: «إنه أمر خطير لأن الناس يتبنون برامج الذكاء الاصطناعي ويعتمدون عليها حقاً».

    وقال: «يمكننا الدخول في حلقة ردود الفعل هذه حيث يؤدي التحيز في أنفسنا وثقافتنا إلى التحيز في الذكاء الاصطناعي ويصبح حلقة من حلقات تعزيز هذا الأمر».

    أمثلة على التحيز

    الاستخدامات المتنوعة للذكاء الاصطناعي، مثل التعرف على الوجه، شهدت مواجهة الشركات مع السلطات بسبب التمييز.

    كان هذا هو الحال ضد رايت-أيد، وهي سلسلة صيدليات أميركية، حيث قامت الكاميرات الموجودة في المتجر بوضع علامات زائفة على المستهلكين، وخاصة النساء والأشخاص الملونين، على أنهم لصوص متاجر، وفقاً للجنة التجارة الفيدرالية.

    يشعر الخبراء بالقلق من أن الذكاء الاصطناعي التوليدي على غرار تشات جي بي تي، والذي يمكنه خلق ما يشبه التفكير على المستوى البشري في ثوانٍ معدودة، يفتح فرصاً جديدة لجعل الأمور أسوء.

    يدرك عمالقة الذكاء الاصطناعي المشكلة جيداً، ويخشون أن تنحدر نماذجهم إلى سلوك سيئ، أو تعكس بشكل مفرط المجتمع الغربي عندما تكون قاعدة مستخدميهم عالمية.

    ولتوضيح المشكلة بشكل أوضح يقول ساندر بيتشاي، الرئيس التنفيذي لشركة غوغل إن الشركة تحصل على استفسارات من إندونيسيا أو الولايات المتحدة للحصول على صور أطباء أو محامين من تطبيقها المدعم بالذكاء الاصطناعي جيميني والذي من المفترض أن يراعي التنوع العرقي.

    لكن هذه الاعتبارات من الممكن أن تصل إلى مستويات سخيفة وتؤدي إلى اتهامات غاضبة بالإفراط.

    وهو ما حدث عندما قام تطبيق غوغل بإخراج صورة لجنود ألمان من الحرب العالمية الثانية، والتي تضمنت بشكل سخيف رجلاً أسود وامرأة آسيوية بحجة عدم التمييز.

    وتعليقاً على تلك الواقعة قال بيتشاي إنه «من الواضح أن الخطأ كان أننا بالغنا في تطبيقه.. حيث لم يكن من المفترض أن يحدث أبداً».

    مسار خاطئ

    لكن ساشا لوتشيوني، عالمة الأبحاث في هاغينغ فيس، وهي منصة رائدة لنماذج الذكاء الاصطناعي، حذرت من أن «التفكير في وجود حل تكنولوجي للتحيز هو نوع من السير في المسار الخاطئ بالفعل».

    وقالت إن الذكاء الاصطناعي التوليدي يدور بشكل أساسي حول ما إذا كان الإخراج «يتوافق مع ما يتوقعه المستخدم منه» وهذا أمر ذاتي إلى حد كبير.

    وحذر جايدن زيغلر، رئيس قسم المنتجات في شركة أليمبيك تكنولجيز، من أن النماذج الضخمة التي بُني عليها تشات جي بي تي «لا يمكنها التفكير فيما هو متحيز أو غير متحيز، لذا لا يمكنهم فعل أي شيء حيال ذلك».

    في الوقت الحالي على الأقل، يعود الأمر للبشر للتأكد من أن الذكاء الاصطناعي يولد كل ما هو مناسب أو يلبي توقعاتهم.

    ولكن بالنظر إلى الهوس بالذكاء الاصطناعي، فإن هذه ليست مهمة سهلة.

    لدى هاغينغ فيس نحو 600 ألف نموذج للذكاء الاصطناعي أو التعلم الآلي متاحة على منصتها.

    قال لوتشيوني: «كل أسبوعين، يظهر نموذج جديد ونحن نتدافع من أجل محاولة تقييم وتوثيق التحيزات أو السلوكيات غير المرغوب فيها».

    إحدى الطرق قيد التطوير هي ما يسمى التفكيك الخوارزمي الذي يسمح للمهندسين بحذف المحتوى، دون تدمير النموذج بأكمله.

    ولكن هناك شكوك جدية في إمكانية نجاح هذا الأمر بالفعل.

    وقال رام سريهارشا، كبير مسؤولي التكنولوجيا في بنكون، إن هناك طريقة أخرى من شأنها «تشجيع» النموذج على السير في الاتجاه الصحيح، و«تحسينه»، و«المكافأة على الصواب والخطأ».

    وبنكون تعد متخصصة في تقنية تساعد نموذج الذكاء الاصطناعي على جلب المعلومات من مصدر ثابت موثوق.

    بالنسبة إلى جوشوا ويفر، مدير إحدى الشركات الاستشارية القانونية، فإن هذه المحاولات «النبيلة» لإصلاح التحيز هي «توقعات لآمالنا وأحلامنا لما يمكن أن تبدو عليه النسخة الأفضل للمستقبل».

    وأضاف أن التحيز «متأصل لدى الإنسان، ولهذا السبب، فهو أيضاً متأصل في الذكاء الاصطناعي».

    (أ ف ب )

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقالمكسيك.. العثور على أربع جثث إحداها لمرشح لانتخابات محلية
    التالي محمد بن سليم يبرم اتفاقية تعاون بين«فيا» و «الفورمولا1»
    خليجي
    • موقع الويب

    المقالات ذات الصلة

    تقرير: أوكرانيا على "حافة الانهيار" وبوتين لن يتراجع

    7 ديسمبر، 2025

    برمان: الخليج يقود التحول الأخضر برؤية تجارية واضحة

    5 ديسمبر، 2025

    جلال: طلب غير مسبوق على معدات الذكاء الاصطناعي عالمياً

    5 ديسمبر، 2025
    اترك تعليقاً إلغاء الرد

    آخر الأخبار

    أكسيوس: اجتماع إسرائيلي قطري في نيويورك لإصلاح العلاقات

    7 ديسمبر، 2025

    نتنياهو: بعد 80 عاما من المحرقة نعمل للدفاع عن ألمانيا

    7 ديسمبر، 2025

    الكويت تسحب الجنسية من طارق السويدان

    7 ديسمبر، 2025

    اعتصام مفتوح في عدن للمطالبة بحق تقرير المصير

    7 ديسمبر، 2025

    جامعة جازان تُتوّج بلقب بطولة الاتحاد السعودي للرياضة الجامعية لكرة القدم

    7 ديسمبر، 2025
    فيسبوك X (Twitter) الانستغرام بينتيريست Tumblr RSS
    • من نحن
    • اتصل بنا
    • سياسة الخصوصية
    © 2025 جميع الحقوق محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter