IMLebanon

صور عارية بواسطة الذكاء الاصطناعي… وهكذا تحمي نفسك!

تقرير ماريا خيامي: 

يواجه معظمنا الذكاء الاصطناعي بطريقة أو بأخرى كل يوم، إذ شق طريقه بسرعة إلى حياتنا اليومية، مما أدى إلى تغيير طريقة عملنا والتواصل والتفاعل مع العالم من حولنا.

ومع استمرار تقدم الذكاء الاصطناعي وزيادة تطوره، من المهم مراعاة المخاطر والعواقب المحتملة المرتبطة بتطويره، ورغم ايجابياته الكثيرة، بدأت تظهر بعض التبعات الخطيرة على الانسان بسببه.

وفي آخر حادثة حصلت بسبب الذكاء الاصطناعي، فتحت الشرطة في إسبانيا تحقيقاً في واقعة تعديل صور فتيات صغيرات ونشرها بطريقة تظهرهن عاريات، وذلك بعد تعديلها عن طريق الذكاء الاصطناعي، بحيث تلقّت الفتيات صوراً لأنفسهن ظهرن فيها عاريات بدون ملابس، حيث كان مجهولون قد قاموا باستخدام أحد التطبيقات لتعديل الصور ليظهرن عاريات.

فيما أعرب أهالي الفتيات عن مخاوفهن من إمكانية تحميل هذه الصور المفبركة والمسيئة على المواقع الإباحية، والسؤال الأهم هنا، كيف يمكن الوقاية من استخدام تطبيقات الذكاء الاصطناعي لكي لا تتكرر واقعة فتيات إسبانيا؟

يوضح الخبير في مواقع التواصل الاجتماعي فريد خليل أن هذه البرامج تستطيع تزييف الصور وتقديمها بدقة عالية وبشكل غير قابل للتشكيك، فتبدو وكأنها حقيقية تماماً. ونصح الفتيات بعدم نشر صورهن الخاصة على مواقع التواصل أو الهواتف أو أي وسيلة إلكترونية لأنه يمكن استخدام تلك الصور وتزييفها.

ويضيف خليل أن تلك التقنيات يمكن استخدامها كذلك في إنتاج فيديوهات مزيفة تبدو وكأنها حقيقية، في انتهاك فاضح للخصوصية، مشيراً في الوقت نفسه إلى أن هناك ايجابيات عدة للذكاء الاصطناعي.

إشارة إلى أن الاستخدام المفرط لوسائل التواصل الاجتماعي هو الثغرة التي يتسلل منها هؤلاء المجرمون للحصول على الصور، وخاصة موقع “إنستغرام” لأنه معروف بكونه موقعا لنشر الصور ويُعد مخزناً به مليارات الصور يستطيع المجرمون استخدامها بشكل مرعب في تركيب صور وفيديوهات مزيفة.

نعرض أدناه بعض ايجابيات الذكاء الاصطناعي:

-تقليل الأخطاء البشرية من خلال وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة.
-اختصار الوقت، من خلال تقديم نتائج أكثر كفاءة ودقة بالمقارنة مع الأساليب التقليدية التي يديرها الانسان.
-تحقيق العديد من المزايا، بما في ذلك تقليل التحيز في عملية الاختيار والتعيين، وتسريع العمليات، وتحسين الكفاءة.
-استخدام خوارزميات (algorithm) متقدمة لمطابقة مهارات المرشحين وخبراتهم ومؤهلاتهم لمتطلبات الوظيفة، مما يوفر قائمة بالمرشحين المحتملين المناسبين في جزء صغير من الوقت الذي قد يستغرقه الإنسان.

وعلاوة على ذلك، يمكن تصميم خوارزميات الذكاء الاصطناعي لتجنب التحيزات التي قد تتسلل بشكل غير مقصود إلى عمليات اتخاذ القرار البشري، وهذه الخاصية يمكن أن تسهم في ممارسات أكثر عدلاً في التوظيف من خلال التركيز فقط على مهارات ومؤهلات المرشحين.

يؤكد خليل أن برنامج الذكاء الاصطناعي هو برنامج قادر على التعليم والتفكير، ومن الممكن اعتبار أي شيء ذكاءً اصطناعياً إذا كان يتكون من برنامج يؤدي مهمة نفترض عادةً أن الإنسان سيؤديها.

ويتضاعف عدد عمليات التزييف باستخدام الذكاء الاصطناعي على الإنترنت كل ستة أشهر، وفقاً لشركة Sensity AI، وهي شركة أبحاث تتعقب مقاطع الفيديو المزيفة عبر الإنترنت، وفي 95% من الحالات، تكون النية إنتاج مواد إباحية من دون موافقة الشخص.
إلى ذلك، دعونا نتطرق لسلبيات ومخاطر الـ AI، ونلقي نظرة عامة شاملة على بعض أسوأ السيناريوهات التي يمكن أن تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، ومنها:

-الافتقار إلى إمكانية تتبع تنفيذ الذكاء الاصطناعي
-إدخال التحيز البرنامجي في صنع القرار
-مصادر البيانات وانتهاك الخصوصية الشخصية
-خوارزميات الصندوق الأسود ونقص الشفافية
-تهديد الأمن القومي
-التكاليف العالية
-الاحتيال الأوتوماتيكي، أو إنشاء حسابات بريد إلكتروني مزيفة، ومواقع إلكترونية، وروابط إلكترونية لسرقة المعلومات
-عمليات اختراق أسرع من خلال الكشف الآلي عن البرمجيات التي يمكن اختراقها
-تحويل الهجمات الإرهابية إلى وسائل إلكترونية ذكية بلا وجود فعلي للبشر، من خلال استخدام الطائرات بدون طيار أو المركبات ذاتية القيادة كأسلحة
-انتشار البطالة بسبب تطور الذكاء الاصطناعي وسيطرته على غالبية الأشغال
-استخدام أسراب من الروبوتات حيث إن الروبوتات الذاتية ليست بحاجة للتحكم بها من أي مسافة مهما كانت بعيدة
– الدعايات المغرضة من خلال الإنتاج التلقائي للصور ومقاطع الفيديو المزيفة
-ممارسة الإقناع الشخصي حيث يمكن استغلال المعلومات المتوفرة للعموم لاستهداف شخص بذاته والتأثير على رأيه.

ويعمل الباحثون منذ الآن على وضع بعض الحلول الممكنة لهذه المشاكل، ويشمل ذلك وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة.