Close Menu
خليجي – Khalegyخليجي – Khalegy
    فيسبوك X (Twitter) الانستغرام
    أخبار شائعة
    • جمعية كرة القدم المصغّرة السعودية تصدر بيانًا تؤكد فيه استقلالية اللعبة تنظيميًا وفنيًا
    • رئيس الأركان الإسرائيلي: لن نتوقف حتى يعود الأمن إلى المنطقة
    • مضيق هرمز.. مسار الحل لتأمين الممر الحيوي
    • من وراء الكواليس.. كيف يدير روته ضغوط ترامب على الناتو؟
    • ولي العهد السعودي والرئيس المصري يبحثان التطورات الإقليمية
    • بيان مشترك للإمارات وعدد من الدول بشأن تطورات مضيق هرمز
    • بالفيديو.. قوة دفاع البحرين مستمرة في التصدي لاعتداءات إيران
    • غارات واسعة على طهران.. وإسرائيل تكشف "بنك الأهداف"
    فيسبوك X (Twitter) الانستغرام بينتيريست RSS
    خليجي – Khalegyخليجي – Khalegy
    • الرئيسية
    • اعمال
    • التكنولوجيا
    • لايف ستايل
    • الرياضة
      • محلي
      • عربي
      • دولى
    • العالمية
    • سياسة
    • علم
    خليجي – Khalegyخليجي – Khalegy
    Tech

    "التزييف العميق".. فرصة المحتالين لسحب أموال الناس

    خليجيخليجي10 يونيو، 2024لا توجد تعليقات3 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    في أستراليا تنتشر العمليات الاحتيالية عبر التزييف العميق بشكل كبير، ويستخدم المحتالون الصور والفيديوهات المزيفة للمشاهير ليسرقوا الناس بطرق مبتكرة لا تخطر على بال أحد، الأمر الذي كلّف الأستراليين ما يقارب 8 مليون دولار كخسارة بسبب العمليات الاحتيالية التي تتم عبر منصات الاستثمار عبر الإنترنت عام 2024 وذلك وفقا للجنة المنافسة والمستهلك الأسترالية. في أحد الأمثلة، شارك المحتالون صوراً مزيفة للناشط البيئي الأسترالي الشهير روبرت إيروين وهو مكبل اليدين، مصحوبة بمقال بعنوان “هل هذه نهاية حياته المهنية”، المقال المزيف أخبر القراء أن أحد البنوك رفع دعوى قضائية ضد إيروين بسبب تعليقات أدلى بها حول منصة تداول عملات مشفرة، ثم ينصح المقال الناس بالتداول في هذه المنصة ويعدهم بالثراء إذا استثمروا 375 دولاراً فيها. نائبة رئيس لجنة المنافسة والمخاطر الأسترالية، كاتريونا لوي قالت: نحث الأستراليين على أخذ وقتهم وإجراء أبحاثهم قبل اغتنام أي فرصة استثمارية خاصة تلك التي تظهر على وسائل التواصل الاجتماعي. وعن استخدام صور المشاهير خصوصا إيلون ماسك قالت لوي هناك استراليون خسروا أكثر من 50 ألف دولار من العملات المشفرة من خلال تسجيل تفاصيلهم بعد مشاهدة مقابلة مزيفة مع إيلون ماسك على وسائل التواصل الاجتماعي. وعلى الرغم من انتشار تحذيرات كبيرة من عمليات التزييف العميق الاحتيالية إلا أنها مازالت تتصيد الناس، لجنة التجارة الفدرالية الأميركية تقول: معظم الاحتيالات في الولايات المتحدة تبدأ عبر المنصات، ويعتمد المحتالون التعامل بالعملات المشفرة منعا للتعقب. عمليات الاحتيال الاستثماري تعد أقوى طرق الاحتيال. المحتالين قد ينتحلون صفة الشركات والوكالات الحكومية. كما وجهت تحذيرا يقول، لا تثق أبدا بشخص يعد بعوائد ربح كبيرة على الاستثمار. لا تثق أبدا بشخص يقبل الدفع فقط بالعملات المشفرة. وبالحديث عن الملياردير الأميركي إيلون ماسك الذي غالبا ما يتم استخدام صوته وصورته بالتزييف العميق كوسيلة إقناع قوية للضحايا، حذرت لجنة الأوراق المالية والعقود الآجلة في هونغ كونغ منذ فترة من بورصة زائفة للعملات المشفرة استخدموا المحتالين فيها مقاطع فيديو مزيفة لإيلون ماسك، وكل هذا بالاعتماد على تقنيات الذكاء الاصطناعي. وليس إيلون ماسك فقط الذي لم يسلم من تقنيات الذكاء الاصطناعي، فهي لم ترحم أحد ومن أشهر المواقف، عندما تم الكشف عن النسخة الافتراضية للرئيس الروسي فلاديمير بوتين خلال مؤتمر صحفي، تم سؤاله فيها عما إذا كان هناك من يشبهه، وعن رأيه بتقنيات الذكاء الاصطناعي التي تستطيع التزييف. وفي هذا السياق، قال المختص في التقنية والذكاء الاصطناعي أنس المرعي في حديث مع “سكاي نيوز عربية”: التزييف العميق شكل جديد للتزييف الذي ظهر في ثمانينيات القرت الماضي عن طريق الفوتوشوب. التزييف العميق يتم عن طريق خوارزميات التمييز والتصنيع وبالتالي من خلال تغذية الأنظمة بالمعلومات تنسخ الوجه بتفاصيله الدقيقة جدا. ممكن الاستفادة من هذه التقنية في تربية الأطفال. أي تكنولوجيا لها استخدامات سيئة واستخدامات إيجابية، الحل يكمن في تفعيل القوانين وملاحقة المحتالين. القانون لا يحمي المغفلين ومن لايمتلك وعي سيدفع الثمن، والمحاسبة ترجع لقانون الدول حيال هذا النوع من الاحتيال. عدم تطور التشريعات والقوانين أدى لزيادة هذا الاحتيال في دول تعتبر متقدمة. مستثمر العملات الرقمية يجي أن يكون حذرا بما يكفي لحماية نفسه من الخداع. التزييف يشمل الصوت والصورة والفيديو، يجب الانتباه على الوجه وتحديدا العيون. اختلاف الإضاءة يمكن أن يكون دليلا على التزييف.


    التزييف التزييف العميق الذكاء الاصطناعي ذكاء اصطناعي
    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابقمؤشر نيكاي الياباني يصعد بدعم أسهم التصدير
    التالي الملاكم غارسيا يشبه نفسه بدونالد ترامب
    خليجي
    • موقع الويب

    المقالات ذات الصلة

    العلماء يكتشفون "نوعا جديد تماما" من الكواكب

    19 مارس، 2026

    الذكاء الاصطناعي يضخ مقاطع مزيفة للحرب تربك المشهد الإعلامي

    15 مارس، 2026

    الإمارات.. تحذير من فيروسات تمسح البيانات وتعطل الأنظمة

    14 مارس، 2026
    اترك تعليقاً إلغاء الرد

    آخر الأخبار

    جمعية كرة القدم المصغّرة السعودية تصدر بيانًا تؤكد فيه استقلالية اللعبة تنظيميًا وفنيًا

    21 مارس، 2026

    رئيس الأركان الإسرائيلي: لن نتوقف حتى يعود الأمن إلى المنطقة

    21 مارس، 2026

    مضيق هرمز.. مسار الحل لتأمين الممر الحيوي

    21 مارس، 2026

    من وراء الكواليس.. كيف يدير روته ضغوط ترامب على الناتو؟

    21 مارس، 2026

    ولي العهد السعودي والرئيس المصري يبحثان التطورات الإقليمية

    21 مارس، 2026
    فيسبوك X (Twitter) الانستغرام بينتيريست Tumblr RSS
    • من نحن
    • اتصل بنا
    • سياسة الخصوصية
    © 2026 جميع الحقوق محفوظة.

    اكتب كلمة البحث ثم اضغط على زر Enter