الذكاء الاصطناعي يشكل مخاطر كبيرة على البشرية والأمن العالمي (رويترز) الذكاء الاصطناعي «الكارثة تقترب»… تقرير يحذر من انقراض البشر بسبب الذكاء الاصطناعي by admin 14 مارس، 2024 written by admin 14 مارس، 2024 186 نيويورك: «الشرق الأوسط» رسم تقرير جديد، صدر بتكليف من وزارة الخارجية الأميركية، صورة مثيرة للقلق، للمخاطر «الكارثية» التي قد يتسبب بها الذكاء الاصطناعي سريع التطور على البشرية والأمن العالمي، محذراً من أنه قد يتسبب في انقراض البشر. ووفق شبكة «سي إن إن» الأميركية، فقد استندت النتائج إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بمن في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي داخل الحكومة. ويشير التقرير، الذي صدر هذا الأسبوع من قِبل شركة «غلادستون» للذكاء الاصطناعي، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن، في أسوأ الحالات، «أن تشكل تهديداً خطيراً يتعلق بانقراض الجنس البشري». وقال التقرير إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن استخدامها أسلحةً لإحداث أضرار لا يمكن إصلاحها، كما أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أن العلماء أنفسهم قد «يفقدون السيطرة» في مرحلةٍ ما على هذه الأنظمة أثناء تطويرها، الأمر الذي قد تنتج عنه «عواقب مدمّرة محتملة على الأمن العالمي». وأضاف التقرير: «إن صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي بطرق تُذكّرنا بفترة ظهور الأسلحة النووية. هناك مخاوف أيضاً من احتمالية حدوث (سباق تسلح) بالذكاء الاصطناعي، الأمر الذي قد يتسبب في حوادث مميتة وعواقب وخيمة بحجم العواقب الناتجة عن استخدام أسلحة الدمار الشامل». ولفت التقرير إلى أن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير تقنيات الذكاء الاصطناعي «على حساب السلامة والأمن»، مما يزيد احتمال «سرقة» أنظمة الذكاء الاصطناعي الأكثر تقدماً، و«استخدامها أسلحةً» ضد الولايات المتحدة. صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي (رويترز) وأكد مسؤول بوزارة الخارجية الأميركية، لشبكة «سي إن إن» أن شركة «غلادستون» كُلفت بإعداد التقرير لأنها تقوم باستمرارٍ بتقييم مدى توافق الذكاء الاصطناعي مع هدفه المتمثل في حماية المصالح الأميركية بالداخل والخارج. ومع ذلك أكد المسؤول أن التقرير لا يمثل آراء الحكومة الأميركية. من جهته، قال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لشركة «غلادستون»: «إن الذكاء الاصطناعي هو بالفعل تكنولوجيا رائعة يمكن أن تساعدنا على مكافحة بعض الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها، لكنه قد يجلب أيضاً مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها». وأضاف: «وتشير مجموعة متزايدة من الأدلة إلى أنه فوق عتبة معينة من الإمكانات والقدرات، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة». ودعا هاريس إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة تهديدات الذكاء الاصطناعي، بما في ذلك فرض إجراءات تنظيمية «طارئة» وقيود على مقدار قوة نماذج الذكاء الاصطناعي التي يجري تطويرها. ومنذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم «الأب الروحي للذكاء الاصطناعي»، من وظيفته في شركة «غوغل»، وأطلق صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10 في المائة بأن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان، خلال العقود الثلاثة المقبلة. ووقّع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم على بيان، في يونيو (حزيران) الماضي، جاء فيه أن «التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية». المزيد عن: الذكاء الاصطناعي ذكاء اصطناعي تكنولوجيا أميركا 0 comment 0 FacebookTwitterPinterestEmail admin previous post الوجود العُماني في أفريقيا next post كيف يقود الذكاء الاصطناعي مستقبل الأعمال في الشرق الأوسط؟ You may also like روبوتات قادرة على تطوير نمط الحياة بصورة غير معهودة 4 يناير، 2025 أكبر إخفاقات الذكاء الاصطناعي في عام 2024 1 يناير، 2025 «اقتصاد النوايا»… الذكاء الاصطناعي يُخمّن رغباتك ويبيعها في... 1 يناير، 2025 «عراب» الذكاء الاصطناعي «نادم»: قد يقضي على الجنس... 29 ديسمبر، 2024 هل تفوق الذكاء الاصطناعي على الأطباء في تشخيص... 26 ديسمبر، 2024 البشر والذكاء الاصطناعي شراكة لاختراق كل المجالات 21 ديسمبر، 2024 كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء... 19 ديسمبر، 2024 الذكاء الاصطناعي قد يكشف سمات شخصيتك من خلال... 19 ديسمبر، 2024 هل يعالج الذكاء الاصطناعي الشعور بالوحدة؟ 18 ديسمبر، 2024 كل ما تحتاج إلى معرفته عن ميزة «Image... 18 ديسمبر، 2024