Close Menu
خليجي – Khalegyخليجي – Khalegy
    فيسبوك X (Twitter) الانستغرام
    أخبار شائعة
    • فيديو.. غضب في إيران بسبب ظهور نساء بدون حجاب في ماراثون
    • سوريا.. مسؤولة كردية تدعو إلى حوار مع تركيا
    • وزارة الرياضة تكرم جمعية لياقة الرياضية بالحدود الشمالية
    • قبل لقاء نتنياهو.. ميرتس يدعو السلطة الفلسطينية للإصلاح
    • الشرع: إقامة إسرائيل منطقة عازلة تهديد للدولة السورية
    • من القاعدة إلى محاولة اغتيال السيسي.. كيف وظف الإخوان العنف؟
    • قيادي في القاعدة يدعو لاستهداف قوات الانتقالي في حضرموت
    • 11 قتيلا في إطلاق نار بفندق في جنوب أفريقيا
    فيسبوك X (Twitter) الانستغرام بينتيريست RSS
    خليجي – Khalegyخليجي – Khalegy
    • الرئيسية
    • اعمال
    • التكنولوجيا
    • لايف ستايل
    • الرياضة
      • محلي
      • عربي
      • دولى
    • العالمية
    • سياسة
    • علم
    خليجي – Khalegyخليجي – Khalegy
    أعمال

    المعتمدون على أدوات الذكاء الاصطناعي أكثر استعدادا للكذب

    خليجيخليجي28 سبتمبر، 2025لا توجد تعليقات2 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    الذكاء الاصطناعي

    حذرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعدادا لخداع الآخرين والكذب عليهم.

    وبحسب الدراسة التي أجراها “معهد ماكس بلانك للتنمية البشرية” في برلين فإن بعض المستخدمين ينسون استخدام “الكوابح الأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلا منهم.

    وقال الباحثون في المعهد الألماني “كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.

    وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبين أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

    وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

    كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.

     وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلا إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.

    وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

    وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.

    وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأميركية الرائدة “أوبن أيه. آي” إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من “التوهّم” أو التلفيق.

    كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقكيف تختارين الحذاء المثالي ليوم زفافكِ؟
    التالي روسيا: تحييد كل الجنود الأوكرانيين المحاصرين في غابات خاركيف
    خليجي
    • موقع الويب

    المقالات ذات الصلة

    برمان: الخليج يقود التحول الأخضر برؤية تجارية واضحة

    5 ديسمبر، 2025

    جلال: طلب غير مسبوق على معدات الذكاء الاصطناعي عالمياً

    5 ديسمبر، 2025

    سلهب: الصين ستحافظ على يوان مستقر أمام الدولار

    5 ديسمبر، 2025
    اترك تعليقاً إلغاء الرد

    آخر الأخبار

    فيديو.. غضب في إيران بسبب ظهور نساء بدون حجاب في ماراثون

    6 ديسمبر، 2025

    سوريا.. مسؤولة كردية تدعو إلى حوار مع تركيا

    6 ديسمبر، 2025

    وزارة الرياضة تكرم جمعية لياقة الرياضية بالحدود الشمالية

    6 ديسمبر، 2025

    قبل لقاء نتنياهو.. ميرتس يدعو السلطة الفلسطينية للإصلاح

    6 ديسمبر، 2025

    الشرع: إقامة إسرائيل منطقة عازلة تهديد للدولة السورية

    6 ديسمبر، 2025
    فيسبوك X (Twitter) الانستغرام بينتيريست Tumblr RSS
    • من نحن
    • اتصل بنا
    • سياسة الخصوصية
    © 2025 جميع الحقوق محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter