هل الذكاء الاصطناعي أداة للتلاعب والابتزاز؟ .. د.هاجر سليمان

شهد العالم في السنوات الأخيرة تطورًا غير مسبوق في تقنيات الذكاء الاصطناعي، حتى أصبح جزءًا لا يتجزأ من حياتنا اليومية، بدءًا من الهواتف الذكية ووسائل التواصل الاجتماعي، وصولًا إلى المجالات الطبية والاقتصادية والأمنية. ورغم الفوائد الهائلة التي يقدّمها الذكاء الاصطناعي في تحسين الكفاءة وتسريع اتخاذ القرار، إلا أن هذا التطور السريع أثار تساؤلات جدية حول مخاطره، وعلى رأسها: هل يمكن أن يكون الذكاء الاصطناعي أداة للتلاعب والابتزاز؟
أولًا: الذكاء الاصطناعي بين النفع والضرر
الذكاء الاصطناعي في جوهره أداة، لا تحمل نية خير أو شر، وإنما تعتمد خطورته أو فائدته على طريقة الاستخدام. فقد ساهم في كشف الجرائم، وتحليل البيانات الضخمة، وتحسين جودة الخدمات، لكنه في المقابل فتح الباب أمام أشكال جديدة من الانتهاكات الرقمية يصعب اكتشافها بالوسائل التقليدية.
ثانيًا: الذكاء الاصطناعي كوسيلة للتلاعب
أصبح التلاعب بالمعلومات من أخطر التهديدات المرتبطة بالذكاء الاصطناعي، خاصة مع تطور تقنيات التزييف العميق (Deepfake)، التي تتيح إنشاء صور ومقاطع فيديو وأصوات مزيفة تبدو حقيقية إلى حد كبير.
يمكن استغلال هذه التقنيات في:
تزييف تصريحات لشخصيات عامة أو عادية.
التأثير على الرأي العام ونشر الشائعات.
تشويه السمعة الشخصية أو المهنية.
هذا النوع من التلاعب لا يهدد الأفراد فقط، بل قد يمتد إلى تهديد الاستقرار الاجتماعي والسياسي للدول.
ثالثًا: الذكاء الاصطناعي والابتزاز الرقمي
الابتزاز باستخدام الذكاء الاصطناعي يُعد من أخطر أشكال الجرائم الحديثة، حيث يمكن للمبتزين:
تركيب صور أو فيديوهات غير حقيقية لأشخاص.
تقليد أصوات الضحايا للتلاعب بعائلاتهم أو جهات عملهم.
جمع وتحليل بيانات شخصية عبر خوارزميات ذكية لاستغلال نقاط الضعف.
وتكمن خطورة هذا النوع من الابتزاز في صعوبة إثبات التزييف، مما يزيد من الضغط النفسي على الضحية.
رابعًا: لماذا يسهّل الذكاء الاصطناعي هذه الجرائم؟
يرجع ذلك إلى عدة أسباب، من أهمها:
سهولة الوصول إلى أدوات الذكاء الاصطناعي.
ضعف الوعي الرقمي لدى المستخدمين.
التطور السريع للتقنيات مقارنة بالقوانين المنظمة لها.
الاعتماد المفرط على المحتوى الرقمي دون التحقق من مصداقيته.
خامسًا: سبل المواجهة والحد من المخاطر
لمواجهة مخاطر التلاعب والابتزاز باستخدام الذكاء الاصطناعي، لا بد من:
سنّ تشريعات واضحة تجرّم إساءة استخدام تقنيات الذكاء الاصطناعي.
تطوير أدوات تقنية لكشف المحتوى المزيف.
تعزيز الوعي الرقمي لدى الأفراد والمؤسسات.
الالتزام بأخلاقيات استخدام الذكاء الاصطناعي في البحث والتطبيق.
في النهاية، يمكن القول إن الذكاء الاصطناعي ليس خطرًا في حد ذاته، بل إن الخطر الحقيقي يكمن في إساءة استخدامه. وبينما يملك هذا الذكاء قدرة هائلة على خدمة البشرية، فإنه قد يتحول إلى أداة للتلاعب والابتزاز إذا غابت الرقابة والوعي والمسؤولية الأخلاقية. ومن هنا، يصبح التحدي الأكبر هو تحقيق التوازن بين الاستفادة من مزاياه، وحماية المجتمعات من مخاطره.



