ESGRI تكشف مخاطر النتائج المضللة بعد واقعة طريفة على “إكس”
تحذير من "الاعتماد الأعمى" على الذكاء الاصطناع

ضحى محمد
تحذير من “الاعتماد الأعمى” على الذكاء الاصطناع: ESGRI تكشف مخاطر النتائج المضللة بعد واقعة طريفة على “إكس”
في ظل الانتشار السريع لتطبيقات الذكاء الاصطناعي في مختلف المجالات، أصدرت لجنة الأمن السيبراني والمهارات الرقمية التابعة لاتحاد الخبراء والاستشاريين (ESGRI) تحذيرًا شديد اللهجة بشأن مخاطر الاعتماد الكلي على هذه التقنيات دون رقابة بشرية فعالة.
يأتي هذا التحذير برئاسة اللواء محمد حسن حسني واللواء المهندس أمير الفونس صادق تادرس، وسط مخاوف متزايدة من إمكانية تقديم الذكاء الاصطناعي نتائج خاطئة أو مضللة، قد تؤدي إلى عواقب وخيمة في قطاعات حيوية مثل إدارة البيانات والأمن السيبراني.
أثار التحذير جدلاً واسعًا بعد تداول واقعة طريفة على منصة التواصل الاجتماعي “إكس” (سابقًا تويتر)، حيث شارك أحد المستخدمين تجربته مع نموذج الذكاء الاصطناعي GPT-5. وفقًا للواقعة، قام المستخدم برفع ملف بيانات بتنسيق CSV، مطالبًا النموذج بتحليله واستخراج مؤشرات الأداء الرئيسية (KPIs).
إلا أن النتائج التي قدمها الذكاء الاصطناعي كانت غير منطقية تمامًا، مما دفع المستخدم إلى سؤاله مازحًا: “هل اخترعت هذه الأرقام؟”. جاء الرد المفاجئ والصادم: “ملاحظة جيدة؛ في الواقع لم أفتح الملف أصلًا!”.
أوضحت اللجنة في بيانها الرسمي أن هذه الواقعة، رغم طابعها الكوميدي، تسلط الضوء على مخاطر حقيقية تتجاوز الطرافة. فالذكاء الاصطناعي، على الرغم من قدراته المتقدمة، قد يعتمد على افتراضات أو نماذج غير دقيقة، مما يؤدي إلى إنتاج بيانات خاطئة إذا لم تخضع للتحقق البشري.
وأكدت اللجنة أن مثل هذه الأخطاء يمكن أن تكون كارثية في سياقات مثل التحليلات المؤسسية أو الأمن السيبراني، حيث يعتمد اتخاذ القرارات على دقة المعلومات.
في تصريح خاص لموقع ،” واديبنا ” شدد اللواء محمد حسن حسني على أن “الأمن السيبراني لم يعد رفاهية، بل هو خط الدفاع الأول ضد التهديدات الرقمية والأخطاء التقنية”.
أما اللواء المهندس أمير الفونس صادق تادرس، فقد أضاف أن الحل يكمن في دمج الذكاء الاصطناعي مع إجراءات رقابية صارمة، بالإضافة إلى تأهيل الكوادر البشرية بالمهارات الرقمية الحديثة. ودعت اللجنة المؤسسات إلى تبني نهج متوازن يجمع بين التقنية والخبرة البشرية، محذرة من “التسليم الأعمى” لمخرجات الذكاء الاصطناعي.
يأتي هذا التحذير في وقت تشهد فيه صناعة الذكاء الاصطناعي نموًا هائلاً، مع انتشار نماذج مثل GPT-5 التي تُروج لقدراتها في معالجة البيانات المعقدة.
ومع ذلك، تكشف حوادث مثل هذه عن حدود هذه التقنيات، مما يعزز الحاجة إلى تطوير إطارات تنظيمية تضمن سلامة استخدامها.
وختم البيان بدعوة من اتحاد ESGRI لجميع المؤسسات والأفراد إلى التعامل بحذر مع تقنيات الذكاء الاصطناعي، مع التأكيد على أن تنمية المهارات الرقمية والأمن السيبراني يشكلان أولوية قصوى للاتحاد. ومن المتوقع أن يثير هذا التحذير نقاشات أوسع حول مستقبل الذكاء الاصطناعي ودوره في المجتمع.
لا توجد تعليقات بعد.