Close Menu
خليجي – Khalegyخليجي – Khalegy
    فيسبوك X (Twitter) الانستغرام
    أخبار شائعة
    • نتنياهو يتوعد بمواصلة ضرب أعداء إسرائيل على جميع الجبهات
    • زامير يحذر: عواصم أوروبية تحت تهديد الصواريخ الإيرانية
    • قتلى وجرحى في جنوب إسرائيل جرّاء سقوط صاروخ إيراني
    • شروط إيرانية "صعبة".. إدارة ترامب تضع أسس ما بعد الحرب
    • مجموعة السبع تدعو إيران إلى وقف فوري لهجماتها "غير المبرّرة"
    • جمعية كرة القدم المصغّرة السعودية تصدر بيانًا تؤكد فيه استقلالية اللعبة تنظيميًا وفنيًا
    • رئيس الأركان الإسرائيلي: لن نتوقف حتى يعود الأمن إلى المنطقة
    • مضيق هرمز.. مسار الحل لتأمين الممر الحيوي
    فيسبوك X (Twitter) الانستغرام بينتيريست RSS
    خليجي – Khalegyخليجي – Khalegy
    • الرئيسية
    • اعمال
    • التكنولوجيا
    • لايف ستايل
    • الرياضة
      • محلي
      • عربي
      • دولى
    • العالمية
    • سياسة
    • علم
    خليجي – Khalegyخليجي – Khalegy
    Tech

    احذروا.. هكذا تسرب منصات الذكاء الاصطناعي بياناتكم

    خليجيخليجي20 يونيو، 2023لا توجد تعليقات5 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    نشر مجموعة من الباحثين في جامعات أميركية وسويسرية بالتعاون مع شركة “غوغل” وشركتها الفرعية DeepMind، ورقة بحثية توضح كيف يمكن أن تتسرب البيانات من منصات إنشاء الصور التي تستند في عملها إلى نماذج الذكاء الاصطناعي التوليدي مثل: DALL-E أو Imagen أو Stable Diffusion.إذ تعمل هذه المنصات جميعها بالطريقة نفسها التي تعتمد على جانب المستخدم الذي يكتب مطالبة نصية محددة، على سبيل المثال: “كرسي بذراعين على شكل ثمرة أفوكادو”، ويحصل على صورة مولدة من النص خلال ثوانٍ.وقد دُربت نماذج الذكاء الاصطناعي التوليدي المستخدمة في هذه المنصات على عدد كبير جدًا من الصور التي تحمل وصفًا محددًا سابقًا، وتكمن فكرة الشبكات العصبية في قدرتها على إنشاء صور جديدة وفريدة بعد معالجة كمية هائلة من بيانات التدريب.ومع ذلك، تُظهر الدراسة الجديدة أن هذه الصور ليست دائمًا فريدة، وفي بعض الحالات، يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صورة مطابقة تمامًا لصورة سابقة استخدمت في التدريب، وهذا يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.وتتحدى هذه الدراسة وجهات النظر القائلة إن نماذج الذكاء الاصطناعي المستخدمة في توليد الصور لا تحفظ بيانات التدريب الخاصة بها، وإن بيانات التدريب قد تظل خاصة إذا لم يُكشف عنها.تقديم المزيد من البياناتيمكن أن تكون نتائج أنظمة التعلم العميق مدهشة بالنسبة لغير المتخصصين، ويمكن أن يظنوا أنها سحرية، ولكن في الواقع، ليس هناك أي سحر في الأمر، فجميع الشبكات العصبية تستند في عملها إلى المبدأ نفسه، وهو التدريب باستخدام مجموعة كبيرة من البيانات، وتوصيفات دقيقة لكل صورة، على سبيل المثال: سلاسل من صور القطط والكلاب.وبعد التدريب، تعرض الشبكة العصبية صورة جديدة ويُطلب منها تحديد هل هي لقطة أم كلب؟ ومن هذه النقطة المتواضعة، ينتقل مُطوّرو هذه النماذج إلى سيناريوهات أكثر تعقيدًا، فيقومون بإنشاء صورة لحيوان أليف غير موجود بالفعل باستخدام الخوارزمية التي دُربت على العديد من صور القطط. وتُجرى هذه التجارب ليس فقط باستخدام الصور، ولكن أيضًا بالنصوص ومقاطع الفيديو وحتى الصوت.نقطة البداية لجميع الشبكات العصبية هي مجموعة بيانات التدريب، إذ لا تستطيع الشبكات العصبية إنشاء كائنات جديدة من العدم. على سبيل المثال، لإنشاء صورة لِقطةٍ، يجب على الخوارزمية دراسة آلاف الصور الفوتوغرافية أو الرسومات الحقيقية للقطط.

    الذكاء الاصطناعي – آيستوك

    جهود كبيرة للحفاظ على سرية مجموعات البياناتيُولي الباحثون في ورقتهم البحثية نماذج التعلم الآلي اهتمامًا خاصًا، ويعملون على النحو التالي: تشويه بيانات التدريب – وهي صور الأشخاص والسيارات والمنازل وما إلى ذلك – عن طريق إضافة تشويش، وبعد ذلك، تُدرب الشبكة العصبية على استعادة هذه الصور إلى حالتها الأصلية.وتتيح هذه الطريقة إمكانية إنشاء صور ذات جودة مقبولة، لكن العيب المحتمل – بالمقارنة مع الخوارزميات في الشبكات التنافسية التوليدية، على سبيل المثال – هو ميلها الأكبر لتسريب البيانات. إذ يمكن استخراج البيانات الأصلية منها بثلاث طرق مختلفة على الأقل، وهي:- استخدام استعلامات محددة لإجبار الشبكة العصبية على إخراج صورة مصدر محدد، وليس شيئًا فريدًا تم إنشاؤه بناءً على آلاف الصور.- يمكن إعادة بناء الصورة الأصلية حتى لو توفر جزء منها فقط.- من الممكن ببساطة تحديد إذا كانت صورة معينة مُضمنة في بيانات التدريب أم لا.وفي كثير من الأحيان، تكون الشبكات العصبية كسولة، وبدلاً من إنتاج صورة جديدة، فإنها تنتج شيئًا من مجموعة التدريب إذا كان يحتوي على عدة نسخ مكررة من الصورة نفسها. إذا تكررت صورة في مجموعة التدريب أكثر من مئة مرة، فهناك فرصة كبيرة جدًا لتسريبها في شكلها شبه الأصلي.ومع ذلك، أظهر الباحثون طرقًا لاسترداد صور التدريب التي ظهرت مرة واحدة فقط في المجموعة الأصلية، فمن بين 500 صورة اختبرها الباحثون، أعادت الخوارزمية بشكل عشوائي إنشاء ثلاثة منها.مَن سرق من؟في يناير 2023، رفع ثلاثة فنانين دعوى قضائية ضد منصات توليد الصور التي تستند في عملها إلى الذكاء الاصطناعي بسبب استخدام صورهم الموجودة عبر الإنترنت لتدريب نماذجها دون أي احترام لحقوق التأليف والنشر.وتستطيع الشبكة العصبية بالفعل نسخ أسلوب فنان معين، ومن ثم تحرمه من الدخل. وتشير الورقة البحثية إلى أنه في بعض الحالات، تستطيع الخوارزميات، لأسباب مختلفة، التورط في الانتحال الصريح، وتوليد رسومات وصور فوتوغرافية وصور أخرى تكاد تكون متطابقة مع أعمال الأشخاص الحقيقيين.لذلك قدم الباحثون توصيات لتعزيز خصوصية مجموعة التدريب الأصلية:1- التخلص من التكرار في مجموعات التدريب.2- إعادة معالجة صور التدريب، على سبيل المثال: عن طريق إضافة تشويش أو تغيير السطوع؛ ويجعل هذا تسريب البيانات أقل احتمالًا.3- اختبار الخوارزمية باستخدام صور تدريبية خاصة، ثم التحقق من أنها لا تعيد إنتاجها بدقة دون قصد.

    ما التالي؟من المؤكد أن منصات الفن التوليدي أثارت نقاشًا مثيرًا للاهتمام خلال الفترة الأخيرة، نقاشًا يجب فيه البحث عن توازن بين الفنانين ومطوري التكنولوجيا. فمن ناحية، يجب احترام حقوق التأليف والنشر، ومن ناحية أخرى، هل الفن المولد عبر الذكاء الاصطناعي مختلف جدًا عن فن الإنسان؟لكن دعونا نتحدث عن الأمان. تقدم الورقة البحثية مجموعة محددة من الحقائق عن نموذج واحد فقط للتعلم الآلي. وبتوسيع المفهوم ليشمل جميع الخوارزميات المتشابهة، نصل إلى موقف مثير للاهتمام. فليس من الصعب تخيل سيناريو يُسلّم فيه مساعد ذكي لمشغل شبكة هاتف محمول معلومات الشركة الحساسة استجابة لاستعلام المستخدم، أو كتابة مطالبة نصية خادعة لشبكة عصبية عامة لإنشاء نسخة من جواز سفر شخص ما. ومع ذلك يؤكد الباحثون أن مثل هذه المشكلات لا تزال نظرية في الوقت الحاضر.لكن هناك مشاكل أخرى حقيقة ونعاني منها الآن، إذ تُستخدم نماذج توليد النصوص مثل: ChatGPT الآن لكتابة تعليمات برمجية ضارة حقيقية.ويساعد GitHub Copilot المبرمجين في كتابة التعليمات البرمجية باستخدام كمية هائلة من البرامج المفتوحة المصدر كمدخلات. ولا تحترم الأداة دائمًا حقوق التأليف والنشر وخصوصية المؤلفين الذين انتهى الأمر بوجود تعليماتهم البرمجية في مجموعة موسعة للغاية من بيانات التدريب.ومع تطور الشبكات العصبية، ستتطور الهجمات التي تتعرض لها أيضًا هذه الشبكات، مع عواقب لم يفهمها أحد حتى الآن.


    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقذهبوا لزيارة «تايتانيك».. 5 مفقودين على متن غواصة في «الأطلسي»
    التالي غوتيريس يدعو إلى تشكيل جبهة لمواجهة الإرهاب والتطرف
    خليجي
    • موقع الويب

    المقالات ذات الصلة

    العلماء يكتشفون "نوعا جديد تماما" من الكواكب

    19 مارس، 2026

    الإمارات.. تحذير من فيروسات تمسح البيانات وتعطل الأنظمة

    14 مارس، 2026

    "ناسا" تكشف موعد إعادة إطلاق رحلتها المأهولة إلى القمر

    13 مارس، 2026
    اترك تعليقاً إلغاء الرد

    آخر الأخبار

    نتنياهو يتوعد بمواصلة ضرب أعداء إسرائيل على جميع الجبهات

    22 مارس، 2026

    زامير يحذر: عواصم أوروبية تحت تهديد الصواريخ الإيرانية

    22 مارس، 2026

    قتلى وجرحى في جنوب إسرائيل جرّاء سقوط صاروخ إيراني

    22 مارس، 2026

    شروط إيرانية "صعبة".. إدارة ترامب تضع أسس ما بعد الحرب

    21 مارس، 2026

    مجموعة السبع تدعو إيران إلى وقف فوري لهجماتها "غير المبرّرة"

    21 مارس، 2026
    فيسبوك X (Twitter) الانستغرام بينتيريست Tumblr RSS
    • من نحن
    • اتصل بنا
    • سياسة الخصوصية
    © 2026 جميع الحقوق محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter