لم يفعل شيئاً خاطئاً. لم تُلتقط له أي صورة مخلّة. ومع ذلك، هذا الصباح، صور ابنك تتداول في مجموعات WhatsApp — وجهه، مُركَّب على جسد ليس جسده. صُنعت في أقل من 60 ثانية. مجاناً. عبر الإنترنت. مرحباً في عصر الـ Deepfakes.

الذكاء الاصطناعي حوّل سلاحاً كانت تملكه الدول وحدها قبل خمس سنوات إلى أداة في متناول الجميع. اليوم، أي مراهق حاقد أو بالغ شرير يستطيع بنقرات قليلة إنشاء صورة مزيفة واقعية لقاصر — واستخدامها لتدميره اجتماعياً أو تهديده أو ابتزازه.

ما هو الـ Deepfake ولماذا يُستهدف أطفالنا؟

الـ Deepfake هو صورة أو فيديو أو رسالة صوتية تُولَّد بالذكاء الاصطناعي، تستبدل وجهاً حقيقياً في محتوى مُختلق. التكنولوجيا أصبحت متاحة الآن عبر تطبيقات مجانية على الهاتف الذكي.

الاستخدامات الخبيثة الثلاثة التي تستهدف القاصرين

📊 ما تقوله الأرقام (2025):
+380% مواد جنسية مُولَّدة بالذكاء الاصطناعي تشمل قاصرين أُبلِّغ عنها لـ IWF في 2024.
90% من الـ Deepfakes على الإنترنت تستهدف النساء أو القاصرين (Sensity AI، 2024).
• يمكن إنتاج صورة Deepfake واقعية في أقل من 30 ثانية بسيلفي واحد كمصدر.

الخطر الحقيقي: هل طفلك مُستعد للتعرف على Deepfake؟

السؤال لم يعد "هل يمكن أن يحدث هذا؟" — إنه يحدث بالفعل. السؤال الحقيقي هو: هل يعرف طفلك ماذا يفعل حين يحدث له؟

الطفل المُدرَّب يعرف: حفظ الأدلة، عدم الدفع، إخبار بالغ موثوق، والإبلاغ للمنصة. الطفل غير المُدرَّب يفعل عكس الأربعة.

Cyber Sqool: تدريب الأطفال في عصر الذكاء الاصطناعي

⚠️ الآباء: لا تنتظروا.

الوقاية أرخص من العلاج — بالمال والدموع.

💬 تواصل معنا →

🏫 مدراء المدارس: احصلوا على الاعتماد في 48 ساعة.

احجز عرضاً تجريبياً مجانياً →
المصادر: Internet Watch Foundation التقرير السنوي 2025 · Sensity AI تقرير مشهد الـ Deepfakes 2024 · NCMEC 2025 · تقرير الإنتربول Africa Cyberthreat Assessment 2025