التقنيات المدعومة بالذكاء الاصطناعي تهدد بتشويه الصور (آن سبلاش) الذكاء الاصطناعي تقنية ضد تعديلات الذكاء الاصطناعي على الصور فهل تنقذنا من التزييف؟ by admin 22 أغسطس، 2023 written by admin 22 أغسطس، 2023 396 نشرها معهد ماساتشوستس وتعطل بشكل فعال قدرة النموذج التوليدي على التلاعب اندبندنت عربية \ نيرمين علي مراسلة @nermenali1 لطالما كان تحميل الصور من شبكة الإنترنت والتعديل عليها ممكناً وفي متناول يد الغالبية ممن يملكون بعض المهارات في التعامل مع برامج التعديل على الصور، لكن ظلت إمكانية كشف هذا النوع من التدخل ممكنة طوال الوقت، نظراً إلى أن البرامج تعمل على بيكسلات الصور (وحدة البناء) مباشرة بأدوات بسيطة وبعين إنسان يعاين الصورة من وراء شاشة، باستخدام مجموعة تقنيات وفلاتر بسيطة. أما اليوم، في ضوء إتاحة بعض التقنيات المدعومة بالذكاء الاصطناعي التوليدي للعامة، أصبح الموضوع مختلفاً تماماً، فنحن أمام آلة تتحكم بعمق في نوع التعديلات ودرجتها بدقة فائقة تكاد لا نميز معها بين المعدلة والأصل، إذ تعاين نماذج الذكاء الاصطناعي الصورة بشكل مختلف عن الطريقة المتبعة من قبل البشر، وتراها كمجموعة معقدة من نقاط البيانات الرياضية التي تصف لون كل بكسل وموضعه، وهذا ما يسمى “التمثيل الكامن للصورة latent representation”. وانطلاقاً من هنا بدأ شبح إساءة الاستخدام يلوح في الأفق، مع مخاوف متزايدة من طمس الحد الفاصل بين الواقع والتلفيق. صور فائقة الواقعية وبوجود نماذج توليدية متقدمة على شاكلة دال-إي DALL-E وميدجورني Midjourney، تتميز بدقة مذهلة وواجهة سهلة الاستخدام، أصبح إنتاج صور فائقة الواقعية أمراً يسيراً نسبياً، ومع التسهيلات الحالية أصبح بإمكان حتى المستخدم غير المتمرس إنشاء صور عالية الجودة ومعالجتها باستخدام أوصاف نصية بسيطة والحصول على نتائج تبدأ بتعديلات بسيطة للصور تصل إلى تغييرات كبيرة لحد الإساءة. وفي حين تشكل تقنيات مثل وضع علامة مائية لدمغ الصورة باسم البرنامج الذي تم التعديل بواسطته، حلاً واعداً، إلا أن إساءة الاستخدام تتطلب إجراء وقائياً أشد تأثيراً يبدأ من الصور نفسها ولا يقتصر على المرحلة اللاحقة للتلاعب، أي يستهدف الصور قبل التعديل وليس بعده. وفي إطار السعي لإنشاء مثل هذا الإجراء، طور باحثون من مختبر علوم الكمبيوتر والذكاء الاصطناعي CSAIL التابع لمعهد “ماساتشوستس” للتكنولوجيا تقنية تخدم هذا الغرض بشكل جيد، والهدف منع التعديل غير المصرح به وتحصين الصور لجعلها مقاومة للتلاعب من قبل النماذج. تقنية لإيقاف التلاعب ونشر موقع معهد “ماساتشوستس” مقالة أواخر يوليو (تموز) الماضي، أعلن من خلالها تطوير برنامج “فوتو غارد” PhotoGuard، وهو عبارة عن أداة بإمكانها حماية الصور من التلاعب باستخدام الذكاء الاصطناعي، من خلال استخدام ما يسمى التشويش perturbations وهي تعديلات طفيفة في قيم البيكسل غير مرئية للعين البشرية، لكن يمكن اكتشافها بواسطة نماذج الكمبيوتر، الأمر الذي يعطل بشكل فعال قدرة النموذج التوليدي على معالجة الصورة والتلاعب بها. ويستخدم “فوتو غارد” طريقتين مختلفتين من الهجوم لتوليد هذه التشويشات، الأولى وهي الطريقة الأبسط تسمى (هجوم التشفير encoder attack) وتستهدف التمثيل الرياضي الكامن للصورة ضمن نموذج الذكاء الاصطناعي، وتجري تعديلات طفيفة ودقيقة جداً لدرجة أنها غير مرئية للعين البشرية، إلا أنها تغير طريقة إدراك النموذج للصورة ليراه ككيان عشوائي، ونتيجة لذلك تصبح أي محاولة لمعالجة الصورة باستخدام النموذج عملية شبه مستحيلة، بالتالي تحافظ هذه الطريقة على السلامة البصرية للصورة مع ضمان حمايتها. أما الثانية (هجوم الانتشار) وهي أكثر تعقيداً، إذ تعمل بشكل استراتيجي على تحديد الصورة المستهدفة وتحسن التشويش لجعل الصورة النهائية المنشأة تشبه الهدف قدر الإمكان. إساءة استخدام وتزيد الطبيعة السريعة لسلوكيات التلاعب من تعقيد المشكلة، فغالباً ما يكون الضرر (سواء تعلق بالسمعة أو بالناحية العاطفية أو المالية) قد حدث بالفعل، حتى بعد الكشف عن الخداع في نهاية الأمر. وقد تتعدد احتمالات وغايات الخداع لتصل إلى إمكانية النشر الاحتيالي لأحداث كارثية كاذبة مثل الترويج لانفجار في معلم مهم، حيث يمكن لهذا النوع من الخداع التلاعب باتجاهات السوق والمشاعر العامة، لكن المخاطر لا تقتصر على المجال العام، إذ يمكن حتى لتغيير الصور الشخصية واستخدامها بشكل غير لائق بهدف الابتزاز التسبب بأذى كبير، وفي السيناريوهات الأكثر تطرفاً، يمكن لهذه النماذج محاكاة الأصوات والصور لارتكاب جرائم مختلقة، والتسبب في ضغوط نفسية وخسارة مالية. ويقول ألكسندر مادري الأستاذ في معهد “ماساتشوستس” للتكنولوجيا في EECS الباحث الرئيس في CSAIL، وهو أيضاً مؤلف مشارك في الورقة البحثية الخاصة بالتقنية، إن “التقدم الذي نشهده في الذكاء الاصطناعي مذهل حقاً، لكنه يتيح استخدامه بطرق مفيدة وخبيثة على حد سواء، لذا فمن الملح العمل على تحديد وتخفيف الحالة الثانية”. ويرى ألكسندر أن “(فوتو غارد) يعد إسهاماً صغيراً في هذا المسعى المهم، لكنه ليس حلاً سحرياً، فبمجرد أن تصبح الصورة على الإنترنت يمكن لذوي النوايا الخبيثة محاولة إجراء هندسة عكسية للإجراءات الوقائية من طريق تطبيق التشويش أو الاقتصاص أو تدوير الصورة، وهنا يبقى الرهان على تعاون جهات عدة في هذا المسعى للوصول إلى آلية واضحة للحماية”. المزيد عن: الذكاء الاصطناعيفلاتربيانات رياضيةالإنترنتصورمعهد ماساتشوستس 0 comment 0 FacebookTwitterPinterestEmail admin previous post صراع عالمي على البيانات بوصفها غذاء الذكاء الاصطناعي التوليدي next post هل كان يمكن إيقاف الممرضة القاتلة لوسي ليتبي في وقت مبكر؟ You may also like التطبيق الصيني يثير الدهشة في أميركا وترمب يراه... 29 يناير، 2025 ما «ديب سيك» الصينية؟ وماذا يعني ظهورها في... 29 يناير، 2025 «ديب سيك» أم «تشات جي بي تي»… أيهما... 29 يناير، 2025 برنامج جديد لأوبن إيه آي يعتمد الذكاء الاصطناعي..وهذه... 25 يناير، 2025 تقرير يكشف مساعدة غوغل للجيش الإسرائيلي في غزة... 23 يناير، 2025 ترمب يعلن استثمار 500 مليار دولار في الذكاء... 22 يناير، 2025 لوائح أميركية للسيطرة على تدفقات رقائق الذكاء الاصطناعي... 14 يناير، 2025 هل يصبح التأريخ أكثر حيادية حين يسطره الذكاء... 14 يناير، 2025 الذكاء الاصطناعي نجح في إنجاز محرك صاروخي متطور... 10 يناير، 2025 ثنائي الذكاء الاصطناعي والحرب الإلكترونية 10 يناير، 2025