سرعة _ميفن_ الفائقة تعني أن أي خطأ بشري يمكن أن يتحول إلى مأساة واسعة النطاق (رويترز) تكنولوجيا و علوم “ميفن” سلاح واشنطن الذكي… يدير معركة إيران بالكامل by admin 29 أبريل، 2026 written by admin 29 أبريل، 2026 12 يحلل البيانات بسرعة خارقة ثم يصنف الأهداف ويقيم التهديدات ويوصي بنوع السلاح المناسب لضربها مما يحول عملية معقدة تستغرق أياماً إلى بضع ثوانٍ اندبندنت عربية / نيرمين علي كاتبة سورية @NermenGhaziAli خلال الساعات الـ24 الأولى للحرب، شنت القوات الأميركية غارات على أكثر من 1000 هدف عسكري ومدني، بوتيرة لم يشهد لها التاريخ العسكري مثيلاً من قبل. في مشهد يبدو وكأنه مستوحى من فيلم خيال علمي، شاشة باردة تتدفق عليها بيانات ملتقطة من مصادر عدة، مئات من الأهداف تجمع ثم ترتب وتربط بمنصات الإطلاق، أي منها لم يصدر عن غرفة عمليات بشرية. ما سبق كان جزءاً من مشهدية واقعية للحرب الحديثة، تجلت في الصراع الإيراني – الأميركي – الإسرائيلي، ففي آخر أيام فبراير (شباط) الماضي، لم تكن السماء وحدها تحترق فوق طهران، بل كان يشتعل معها شيء أشد خطورة، هو المفهوم التقليدي للحرب، معلناً دخولنا رسمياً عصر حروب الذكاء الاصطناعي. خلال الساعات الـ24 الأولى للحرب، شنت القوات الأميركية غارات على أكثر من 1000 هدف عسكري ومدني، بوتيرة لم يشهد لها التاريخ العسكري مثيلاً من قبل. قائمة الأهداف تلك كانت بمعظمها لحظية يعجز مئات من المحللين العسكريين العاكفين على خرائط وصور الأقمار الاصطناعية عن إنجازها. إذاً، كيف جرى تحديد آلاف الأهداف بصورة لحظية وعلى مساحة تتجاوز ميلوناً و600 كيلومتر مربع؟ الجواب يعود إلى عام 2017 عندما أدخل البنتاغون الذكاء الاصطناعي للمرة الأولى في صميم استراتيجية الحرب الأميركية، ولكي نفهم ما جرى فوق السماء الإيرانية، لا بد من أن نعرف أولاً ماذا صنع في وادي السيليكون. منظومة “ميفن” أنجز البنتاغون عام 2017، بالاستعانة بشركات تكنولوجية أميركية عدة، منظومة ذكاء اصطناعي عسكرية متطورة، أطلق عليها اسم “ميفن” (Maven project)، صممت لتحل مشكلة تدفق المعلومات، إذ كان المحللون العسكريون البشريون يغرقون بكميات هائلة من البيانات، تشمل مقاطع فيديو من طائرات مسيرة وصور أقمار اصطناعية واتصالات ورادارات وبيانات جغرافية وشبكات استخبارات مختلفة، وكان من المستحيل معالجة كل هذا يدوياً لاتخاذ قرارات حاسمة في الوقت المناسب. جاء نظم “ميفن” ليدمج ويحلل كل هذه البيانات بسرعة خارقة في واجهة واحدة، ثم يصنف الأهداف ويقيم التهديدات ويوصي بنوع السلاح المناسب لضربها، مما يحول عملية معقدة تستغرق أياماً إلى بضع ثوانٍ أو نقرات عدة على الشاشة، لكن بعد ثمانية أعوام من إطلاقه كتجربة محدودة تحول هذا المشروع المتواضع إلى نسخة مختلفة عما ولد من أجله، إذ تضطلع “ميفن” اليوم بتسريع ما يعرف في صناعة الحرب بـ”سلسلة القتل “Kill Chai، أي العملية الممتدة من الكشف الأولي حتى الضربة. سلسلة القتل الرقمية يعمل نظام “ميفن” أولاً على دمج البيانات، إذ يقوم بتجميع ودمج كميات هائلة من البيانات من مصادر استخباراتية عدة في منصة واحدة موحدة، ثم باستخدام الذكاء الاصطناعي وخوارزميات تعلم الآلة، يقوم بتحليل المعلومات لاكتشاف وتصنيف الأهداف المحتملة تلقائياً (دبابات أو منصات صواريخ أو منشآت) وإبرازها للمشغل البشري. وبمجرد تحديد الهدف يقوم النظام تلقائياً بتوليد واقتراح خيارات مختلفة للتعامل معه بناءً على تقييم الموارد المتاحة والأخطار والقوانين، إذ ربطت المنظومة بنموذج كلود “أنثروبيك”، لتتولى تحليل البيانات واستخلاص الأنماط ومحاكاة سيناريوهات الحرب وصولاً إلى اقتراح خيارات للتعامل مع الأهداف، وبذلك لم يعد دور الذكاء الاصطناعي يقتصر على الفهم، بل امتد إلى تحديد الأهداف واقتراح سيناريوهات التعامل معها في وقت قياسي. لكن عمله لا يقف هنا، إذ يسمح “ميفن” بتحويل القرار إلى إجراء تنفيذي مباشر أي ضربات حقيقية من خلال المنصة نفسها، عبر منظومات تنفيذ آلية تتضمن مسيرات جوالة وقنابل موجهة وصواريخ دقيقة، مع متابعة العملية على الخريطة بصورة لحظية. أي إن الخوارزمية ترى الهدف ثم تحلله وتقترح الضربة، والعنصر البشري المسؤول يضغط نظرياً على الزر بعدما تنهي الآلة عملية التفكير، مما يغلق حلقة “الاستشعار – القرار – التنفيذ” بالكامل أو سلسلة القتل. هذه المنظومة حولت الذكاء الاصطناعي من أداة مساعدة للعقل البشري إلى عقل موازٍ يدير المعركة، وبذلك تحولت النماذج اللغوية إلى أدوات تقرر ما الذي أو من الذي يجب القضاء عليه الآن. “ميفن” فوق إيران في الحرب الأخيرة بين أميركا وإيران، أدى “ميفن” دوراً محورياً، إذ شكل العمود الفقري لعملية الاستهداف والتخطيط العسكري، وأثار في الوقت ذاته جدلاً واسعاً واتهامات بالمسؤولية عن فاجعة، إذ افتتحت الحرب بقصف موقع في مدينة ميناب ثلاث مرات متتالية، مما أدى إلى مقتل ما لا يقل عن 170 طفلاً وإصابة 90 آخرين. هذا الموقع كان واحداً من الأهداف التي أرسلتها وكالة استخبارات الدفاع (المسؤولة عن تحديد الأهداف) إلى القيادة المركزية الأميركية، وكان يفترض أن يحوي مباني عسكرية تابعة للحرس الثوري الإيراني، والصحيح أن هذه المعلومة تعود لعام 2013 قبل أن يزال قسم كبير من المباني العسكرية ويتحول الموقع إلى مدرسة ابتدائية “الشجرة الطيبة”. أثارت هذه الفاجعة أسئلة حادة في واشنطن، إذ طالب أعضاء في الكونغرس بمعرفة ما إذا كان الذكاء الاصطناعي هو من اختار المدرسة كهدف، لكن التقارير الصحافية تشير بوضوح إلى خطأ في البيانات، أي إن بيانات الاستخبارات الأميركية كانت غير محدثة وما زالت تحتفظ بتصنيف الموقع كهدف عسكري، وما قام به نظام “ميفن” أنه مر على هذه البيانات القديمة وعالجها وعند تحليل صور الأقمار الاصطناعية والمعلومات الاستخباراتية، صنف الموقع كهدف عسكري بناءً على المعطيات الخاطئة التي أدخلت إليه. باختصار، “ميفن” وضع المدرسة على قائمة الأهداف لأن البشر زودوه بمعلومات قديمة تقول إنه هدف عسكري، أي إن ما قام به النظام أتمتة الخطأ البشري الموجود في قاعدة البيانات، لكن الخطأ لم يكلف هذه المرة بيانات فحسب، بل أرواح أطفال أبرياء. لقد أظهرت فاجعة مدرسة “ميناب” وجهاً آخر وخطراً للذكاء الاصطناعي، فسرعته الفائقة تعني أن أي خطأ بشري، مهما كان صغيراً، يمكن أن يتحول إلى مأساة واسعة النطاق، مما يجعله أداة بالغة الخطورة إذا لم تخضع لرقابة وتدقيق بشريين. “لا تكن شريراً” تعد “غوغل” الأم الفعلية لـ”ميفن”، إذ قامت بادئ ذي بدء بتطوير خوارزميات المشروع، وإنشاء برمجيات ذكاء اصطناعي لتحليل كميات هائلة من البيانات بهدف مساعدة المحللين البشريين على تحديد الأهداف العسكرية بصورة أسرع، لكنها انسحبت من المشروع عام 2018 بعد معارضة داخلية شديدة من أكثر من 4 آلاف موظف، وقعوا على رسالة احتجاج داخلية تطالب الشركة بإنهاء تعاونها مع البنتاغون، معبرين عن قلقهم من أن عملهم سيستخدم في حروب وتطبيقات، وسيتحول إلى أداة حرب تؤدي إلى قتل البشر، في حدث أثار جدلاً واسعاً حول أخلاقيات استخدام الذكاء الاصطناعي في التطبيقات العسكرية، إذ كان شعار “غوغل” غير الرسمي في ذلك الوقت “لا تكن شريراً” (Don’t be evil)، ورأى الموظفون أن المشاركة في مشروع حربي تتعارض بصورة صارخة مع قيم الشركة. وبهذا أعلنت “غوغل” عدم تجديد عقدها مع البنتاغون، وانسحبت رسمياً من المشروع، وأصدرت لاحقاً مجموعة من المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي، تعهدت فيها بعدم تطوير تقنيات تستخدم في الأسلحة أو لإلحاق الضرر المباشر بالبشر. وكان نقطة تحول في تاريخ المشروع، لتدخل في ما بعد شركة “بالانتير” عام 2024 إلى المساحة التي أخلتها “غوغل”، وتصبح المقاول التقني الرئيس للمشروع…. المقال كاملا على هذا الرابط 0 comment 0 FacebookTwitterPinterestEmail admin previous post طاقم وركاب ينقذون الموقف… ولادة ناجحة على متن طائرة next post مقتل خامنئي ينهي حكم الفرد في إيران و”الحرس” يحد من دور “مجتبى” You may also like الإنسان الرقمي… حاجة بشرية في فضاء التكنولوجيا 28 أبريل، 2026 هل سيسبح رجل “أبل” الجديد جون تيرنس عكس... 28 أبريل، 2026 مشروع علمي طموح يهدف لتحويل مياه القمر إلى... 26 أبريل، 2026 كيف تتجاوز مسيرات “شاهد” الإيرانية التشويش؟ 16 مارس، 2026 أسلحة جديدة يستخدمها الجيش الأميركي ضد إيران 15 مارس، 2026 “الشعاع الحديدي”: سلاح “لا ينضب” تعول عليه إسرائيل... 15 مارس، 2026 نظرية “الكوكب المحظوظ” تعيد علوم الفلك القديمة للواجهة 15 مارس، 2026 مسيرة أميركية فتاكة شاركت في اغتيال سليماني وتضرب... 13 مارس، 2026 إلى أي مدى حركت حرب إيران “ساعة يوم... 9 مارس، 2026 عين الفيزياء.. كيف ترصد الأقمار الصناعية دبابة من... 9 مارس، 2026