أميركا والصين وقوى كبرى أخرى تقاوم فرض قيود قانونية على تلك الطائرات. (أ ف ب) الذكاء الاصطناعي المسيرات القاتلة تثير المخاوف من إخضاعها للذكاء الاصطناعي by admin 29 نوفمبر، 2023 written by admin 29 نوفمبر، 2023 250 قلق متنام من أخطار حرب الروبوتات يدفع بعض الدول إلى فرض قيود قانونية جديدة اندبندنت عربية / كفاية أولير صحافية يبدو الأمر وكأنه شيء من الخيال العلمي حيث أسراب من الروبوتات القاتلة التي تطارد الأهداف بمفردها وتكون قادرة على الطيران للقتل من دون أي توقيع بشري، وهذا السيناريو يقترب من الواقع، وفق ما تقول صحيفة “نيويورك تايمز” التي تحدثت عن إحراز الولايات المتحدة والصين وحفنة من الدول الأخرى تقدماً سريعاً في تطوير ونشر تكنولوجيا جديدة لديها القدرة على إعادة تشكيل طبيعة الحرب من خلال طائرات من دون طيار مستقلة ومجهزة بالذكاء الاصطناعي. ويثير هذا الاحتمال قلق عدد من الحكومات الأخرى لدرجة أنها تحاول تركيز الاهتمام عليه من خلال مقترحات في الأمم المتحدة لفرض قواعد ملزمة قانوناً باستخدام ما تسميه الجيوش الأسلحة الفتاكة المستقلة. وقال كبير المفاوضين النمسويين في شأن هذه القضية ألكسندر كمينت في مقابلة أجريت معه إن “هذه حقاً واحدة من أهم نقاط التحول بالنسبة إلى الإنسانية”، متسائلاً ما هو دور البشر في استخدام القوة؟ إنها قضية أمنية أساس للغاية ومسألة قانونية وقضية أخلاقية”. فرض قانون أممي ملزم ولكن في حين توفر الأمم المتحدة منصة للحكومات للتعبير عن مخاوفها يبدو من غير المرجح أن تسفر العملية عن قيود جوهرية جديدة ملزمة قانوناً، ويقول المدافعون عن الحد من الأسلحة إن الولايات المتحدة وروسيا وأستراليا وإسرائيل ودول أخرى جادلت جميعها بأنه ليست هناك حاجة إلى قانون دولي جديد في الوقت الحالي، في حين تريد الصين تعريف أي حد قانوني بصورة ضيقة للغاية، بحيث لن يكون له تأثير عملي يذكر. وكانت النتيجة ربط المناقشة بعقدة إجرائية مع تضاؤل فرص إحراز تقدم في شأن تفويض ملزم قانوناً في أي وقت قريب. وقال نائب رئيس الوفد الروسي لدى الأمم المتحدة كونستانتين فورونتسوف للدبلوماسيين الذين احتشدوا في غرفة اجتماعات في الطابق السفلي بمقر الأمم المتحدة في نيويورك “لا نرى أن هذا هو الوقت المناسب حقاً”. الجدل حول أخطار الذكاء الاصطناعي جذب انتباهاً كبيراً خلال الأيام الأخيرة، بخاصة مع المناقشات حول السيطرة على “أوبن آي” الشركة الأبرز في مجال الذكاء الاصطناعي في العالم، ويظهر أن هناك انقساماً داخل الشركة حول مدى اهتمامها بأخطار التكنولوجيا. وناقش مسؤولون من الصين والولايات المتحدة الأسبوع الماضي قضية ذات صلة، وهي القيود المحتملة على استخدام الذكاء الاصطناعي في تطوير الأسلحة النووية، وقد يتساءل بعضهم عن الضرورة من تحديد قواعد وإطار قانوني للتحكم في تقدم التكنولوجيا والتأكد من استخدامها بصورة آمنة ومسؤولة. ويبرز هذا النقاش التحديات الأخلاقية المتزايدة والمرتبطة بتقدم التكنولوجيا، ويسلط الضوء على الحاجة إلى إطار قانوني دولي قوي يساعد في تنظيم وتوجيه استخدام الذكاء الاصطناعي في مجالات تشمل الأمان وحقوق الإنسان. وعلى هذه الخلفية فإن مسألة القيود التي ينبغي وضعها على استخدام الأسلحة الفتاكة المستقلة اكتسبت إلحاحاً جديداً، وفي الوقت الحالي وصلت إلى ما إذا كان يكفي للأمم المتحدة أن تتبنى ببساطة مبادئ توجيهية غير ملزمة، وهو الموقف الذي تدعمه الولايات المتحدة. وقال كبير مسؤولي الاتفاقات الدولية في وزارة الخارجية الأميركية دورو سين لمفاوضين آخرين خلال مناقشة جرت في مايو (أيار) الماضي حول لغة القيود المقترحة إنه “سيكون من الصعب للغاية على وفدنا قبول كلمة يجب”. وجادل دورو سين وأعضاء الوفد الأميركي الذي يضم ممثلاً عن الـ “بنتاغون” بأنه بدلاً من وضع قانون دولي جديد يجب على الأمم المتحدة توضيح أن القوانين الدولية لحقوق الإنسان الحالية تحظر بالفعل على الدول استخدام الأسلحة التي تستهدف المدنيين أو تسبب حرباً أو قدر غير متناسب من الضرر لهم. لكن الموقف الذي اتخذته القوى الكبرى لم يؤد إلا إلى زيادة القلق بين الدول الأصغر التي تقول إنها تشعر بالقلق من أن الأسلحة الفتاكة المستقلة قد تصبح شائعة في ساحة المعركة قبل أن يكون هناك أي اتفاق على قواعد استخدامها. وقال السفير الباكستاني خليل هاشمي خلال اجتماع في مقر الأمم المتحدة إنه “لا يبدو أن الرضا عن النفس خياراً بعد الآن، إن الفرصة المتاحة للتحرك تتضاءل بسرعة بينما نستعد للاختراق التكنولوجي”. ضرورة الحفاظ على الأمان العالمي وتعزز التطورات السريعة في مجالات الذكاء الاصطناعي والطائرات من دون طيار الحاجة إلى مناقشات وتحديثات في المجتمع الدولي للتعامل مع هذه التكنولوجيا وتطبيق قواعد وإطار قانوني يحد من استخدامها بصورة غير مراقبة أو مليئة بالأخطار، فالقضايا المتعلقة بالأسلحة الفتاكة المستقلة تشمل تحديد المسؤولية، وضمان الامتثال لقوانين النزاع الدولي وحقوق الإنسان وتوفير إطار قانوني ينظم استخدامها. ولكن مع استمرار التطور التكنولوجي وتوسع استخدام الذكاء الاصطناعي في الأمور العسكرية يصبح من الأهمية بمكان تحديد قواعد وتوجيهات دقيقة للحفاظ على الأمان العالمي ومنع تداول الأسلحة الفتاكة المستقلة بصورة لا يسيطر عليها. وأوضح مسؤولو الـ “بنتاغون” أنهم يستعدون لنشر الأسلحة المستقلة على نطاق واسع، وأعلنت نائبة وزير الدفاع كاثلين هيكس هذا الصيف أن الجيش الأميركي “سينشر أنظمة ذاتية التشغيل يمكن تخصيصها بآلاف عدة ” في العامين المقبلين قائلة إن “الدفع للتنافس مع استثمارات الصين في الأسلحة المتقدمة يستلزم أن تقوم الولايات المتحدة بالاستفادة من المنصات الصغيرة والذكية والرخيصة والكثيرة”. الآلات الحربية واتخاذ قرار القتل بصورة مستقلة وصحيح أن مفهوم الأسلحة المستقلة ليس جديداً كما تشير الألغام الأرضية وبعض الأنظمة الصاروخية التي تعتمد على التكنولوجيا التلقائية للقيام بوظائفها، لكن الفرق الرئيس يأتي من دمج التكنولوجيا المتقدمة مثل الذكاء الاصطناعي، إذ يكون للنظم الذكية القدرة على فهم البيئة المحيطة بها واتخاذ القرارات بصورة مستقلة بناء على هذا الفهم. وهذا الاتجاه نحو الأسلحة المستقلة يثير عدداً من القضايا الأخلاقية والقانونية والأمان، ويستدعي ضرورة وضع إطار دولي لتنظيم واستخدام هذه التكنولوجيا. وتبنت الولايات المتحدة فعلياً سياسات طوعية تضع حدوداً لكيفية استخدام الذكاء الاصطناعي والأسلحة الفتاكة المستقلة، بما في ذلك سياسة الـ “بنتاغون” التي رُوجعت هذا العام والتي تسمى “الاستقلالية في أنظمة الأسلحة” والإعلان السياسي ذو الصلة الصادر من وزارة الخارجية في شأن “الاستخدام المسؤول للأسلحة الاصطناعية والاستخبارات والحكم الذاتي”، وهو الأمر الذي حثت الدول الأخرى على تبنيه. وقالت وكيلة وزارة الخارجية بوني دينيس إن “بيانات السياسة الأميركية ستمكن الدول من تسخير الفوائد المحتملة للذكاء الاصطناعي، والأنظمة في المجال العسكري تشجع في الوقت نفسه الخطوات التي تتجنب السلوك غير المسؤول والمزعزع للاستقرار والمتهور”. وتحظر سياسة الـ “بنتاغون” استخدام أي سلاح جديد مستقل أو حتى تطويره ما لم يُوافق عليه من قبل كبار مسؤولي وزارة الدفاع، وتُلزم تشغيل هذه الأسلحة في منطقة جغرافية محددة ولفترات محدودة، وإذا تم التحكم في الأسلحة بواسطة الذكاء الاصطناعي فيجب أن يحتفظ الأفراد العسكريون “بالقدرة على فك الارتباط أو تعطيل الأنظمة المنشورة التي تظهر سلوكاً غير مقصود”. القضاء على الدور الأخلاقي للبشر وقال جنرالات القوات الجوية في المقابلات إنه على الأقل في البداية ستكون هناك حاجة إلى موافقة بشرية قبل اتخاذ إجراء مميت. لكن وزير القوات الجوية الأميركية فرانك كيندال قال في مقابلة منفصلة مع الصحيفة إن هذه الآلات ستحتاج في النهاية إلى امتلاك القدرة على القيام بعمل مميت من تلقاء نفسها مع بقائها تحت الإشراف البشري في كيفية نشرها. وأضاف أن “القرارات الفردية في مقابل عدم اتخاذ قرارات فردية هي الفرق بين الفوز والخسارة، ولا أعتقد أن الأشخاص الذين سنواجههم سيفعلون ذلك، وسيمنحهم ذلك ميزة كبيرة إذا وضعنا هذا القيد على أنفسنا”. من جانبه قال ضابط البحرية المتقاعد الذي يعمل الآن باحثاً في جامعة الدفاع الوطني التابعة للـ “بنتاغون” توماس إكس هامز في مقابلة إن “من الواجب الأخلاقي أن تقوم الولايات المتحدة والدول الديمقراطية الأخرى ببناء واستخدام الأسلحة المستقلة والفشل في القيام بذلك في صراع تقليدي كبير سيؤدي إلى سقوط عدد من القتلى، عسكريين ومدنيين على حد سواء وربما خسارة الصراع”. دعوات فرض لحظر عالمي في حين يختلف بعض المدافعين عن الحد من الأسلحة والدبلوماسيين بحجة أن الأسلحة الفتاكة التي يتحكم فيها الذكاء الاصطناعي والتي لا تسمح للبشر بضربات فردية ستغير طبيعة القتال من خلال القضاء على الدور الأخلاقي المباشر الذي يلعبه البشر في القرارات المتعلقة بقتل الحياة. ويقول النقاد إن الأسلحة تعمل في بعض الأحيان بطرق لا يمكن التنبؤ بها، ومن المرجح أن ترتكب أخطاء في تحديد الأهداف مثل السيارات ذاتية القيادة التي تتعرض لحوادث. ويقول المعارضون إن الأسلحة الجديدة قد تجعل استخدام القوة المميتة أكثر احتمالاً في زمن الحرب لأن الجيش الذي يطلقها لن يعرض جنوده للخطر على الفور أو قد يؤدي إلى تصعيد أسرع. واقترحت مجموعات الحد من الأسلحة مثل اللجنة الدولية للصليب الأحمر ومنظمة “أوقفوا الروبوتات القاتلة” إلى جانب الوفود الوطنية بما في ذلك النمسا والأرجنتين ونيوزيلندا وسويسرا وكوستاريكا مجموعة متنوعة من القيود. ويسعى بعضهم إلى فرض حظر عالمي على الأسلحة المستقلة الفتاكة التي تستهدف البشر بصورة صريحة، فيما يشترط آخرون أن تظل هذه الأسلحة تحت سيطرة بشرية حقيقية، وأن يتم استخدامها في مناطق محدودة لفترات زمنية محددة. لكن دوروسين اعترض مراراً وتكراراً على المتطلبات المقترحة التي تعتبرها الولايات المتحدة غامضة للغاية أو غير راغبة في قبولها مثل الدعوة إلى وضع الأسلحة تحت “سيطرة بشرية ذات معنى، فاللغة المفضلة للوفد الأميركي هي ضمن سلسلة قيادة بشرية مسؤولة”. ويرى دوروسين أن من المهم للولايات المتحدة أن يتجنب المفاوضون المصطلحات الغامضة والشاملة. المزيد عن: أميركاالصينأخلاق الذكاء الاصطناعيالطائرات بدون طيار 0 comment 0 FacebookTwitterPinterestEmail admin previous post “باريس تتكلم سعودي” والرياض تتوج “إكسبو” بعقدها الفريد next post أغلى كتاب في فرنسا لهذا العام: الأعمال الكاملة لإيملي ديكنسون You may also like قريبا: استخدام الذكاء الاصطناعي للكشف عن أورام الدماغ 24 نوفمبر، 2024 روبوت بـ”رؤية خارقة”.. يرى ما وراء الجدران! 17 نوفمبر، 2024 كاميرا مزودة بالذكاء الاصطناعي لقياس ضغط الدم والسكري 17 نوفمبر، 2024 الذكاء الاصطناعي يطرح على ترمب تحديات كونية وأبعد 14 نوفمبر، 2024 أدوات مميزة لتحويل أفكارك إلى تصميمات مرئية جذابة 13 نوفمبر، 2024 دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم... 7 نوفمبر، 2024 الذكاء الاصطناعي لاعب دبلوماسي ومفاوض على طاولة السلام 7 نوفمبر، 2024 كيف وظفت دول عظمى الذكاء الاصطناعي في الفضاء؟ 2 نوفمبر، 2024 الذكاء الاصطناعي وصناعة “الإرهابي الملهم” 31 أكتوبر، 2024 أفضل أدوات الذكاء الاصطناعي لصناعة الفيديوهات المتقدمة 29 أكتوبر، 2024