لا بد من تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها (أ ف ب/ غيتي) الذكاء الاصطناعي ثغرة كبيرة في الذكاء الاصطناعي قد تهدد حياة الإنسان by admin 23 أكتوبر، 2024 written by admin 23 أكتوبر، 2024 53 الاكتشاف لا بد من أن يدفع إلى إعادة تفكير شامل في أوجه استخدامه في تصميم الروبوتات وتشغيلها اندبندنت عربية / أندرو غريفين محرّر التكنولوجيا ومراسل العلوم كشفت دراسة حديثة عن مخاوف من أن ثغرة أمنية كبيرة في أنظمة ذكاء اصطناعي من شأنها أن تهدد حياة البشر. وحذر الباحثون الذين اضطلعوا بالدراسة من أن أنظمة روبوتية تعتمد على نماذج من الذكاء الاصطناعي في اتخاذ قراراتها ربما تكون عرضة للاختراق والتلاعب بها، مما يعني أنها غير آمنة [لأنها عرضة لتغيير سلوكها واستغلالها بطريقة تضر البشر]. تناول البحث الجديد ما يسمى بالنماذج اللغوية الكبيرة (large language models)، أو اختصاراً “إل إل أم” LLM علماً أن هذه التكنولوجيا تشكل الأساس الذي تقوم عليه أنظمة ذكية عدة من قبيل روبوت الدردشة الشهير “تشات جي بي تي”. كذلك تستخدم التكنولوجيا المعنية نفسها في توجيه روبوتات للتحكم في قرارات آلات نستخدمها في الحياة اليومية الحقيقية [مركبات وأجهزة منزلية…]. ولكن تشوب هذه التكنولوجيا نقاط ضعف وثغرات أمنية يستطيع أن يستغلها “القراصنة” الإلكترونيون من أجل استخدام الأنظمة الذكية بطرق لم تكن مقصودة عند تصميمها، وفق البحث الجديد الذي نهضت به “جامعة بنسلفانيا” الأميركية. جورج باباس، البروفيسور في “جامعة بنسلفانيا”، تحدث في هذا الشأن فقال: “تظهر دراستنا أن النماذج اللغوية الكبيرة في الوقت الحالي ليست آمنة بما فيه الكفاية عند دمجها مع أجهزة وآلات تؤدي وظائفها ومهماتها في بيئات حقيقية وتؤثر في محيطها” [مثل المنازل والمصانع والشوارع…]. البروفيسور باباس وزملاؤه أثبتوا أنه بالإمكان تجاوز عدد من حواجز الحماية الأمنية في مجموعة من الأنظمة الذكية المستخدمة حالياً مثل نظام القيادة الذاتية للسيارة، الذي يمكن اختراقه لجعل السيارة لتجتاز تعبر التقاطعات والمعابر بصورة غير آمنة [إشارات المرور ومناطق عبور المشاة مما يجعلها عرضة للحوادث]. ويتعاون الباحثون الذين أعدوا هذه الورقة البحثية مع الجهات التي أنشأت تلك الأنظمة الذكية من أجل تحديد نقاط الضعف ومعالجتها، ولكنهم مع ذلك حذروا من أنه ليس كافياً وضع حد لهذه الثغرات المشار إليها، بل لا بد من إعادة تفكير شامل في كيفية تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها. فيجاي كومار، باحث مشارك في الدراسة أيضاً من “جامعة بنسلفانيا”، أبدى رأيه في الدراسة فقال إن “نتائج الورقة البحثية توضح بصورة جلية أن صب التركيز على السلامة أولاً أمر بالغ الأهمية لإطلاق العنان للابتكار المسؤول الذي يأخذ في الاعتبار الأمان والأخلاقيات. علينا أن نجد حلولاً لنقاط الضعف الجوهرية قبل إطلاق الروبوتات المدعومة بالذكاء الاصطناعي في العالم الحقيقي [المنازل والمؤسسات والمصانع…]. “في الواقع، يسعى بحثنا إلى وضع أسس للتحقق والتأكد من سلامة الأنظمة، بما يضمن أن تكتفي الأنظمة الروبوتية، في خطوة أساسية وضرورية، بتنفيذ الإجراءات التي تتماشى مع المعايير والقيم الاجتماعية”، ختم كومار كلامه. © The Independent المزيد عن: أخطار الذكاء الاصطناعيالتحكم بالذكاء الاصطناعيالذكاء الاصطناعيالسيارات ذاتية القيادةالثورة الروبوتيةاستخدام الروبوتاتالأجهزة الذكيةالحياة البشرية 0 comment 0 FacebookTwitterPinterestEmail admin previous post “التجمد العظيم” قد يرسم نهاية باردة ومتطاولة للكون next post آل باتشينو من قاع المأساة والإدمان إلى قمة المجد والنجومية You may also like “الروبوت المجرم” يشكل “عصابة” بفضل الذكاء الاصطناعي 1 ديسمبر، 2024 الذكاء الاصطناعي ربما ينهي عقلية الإجهاد لدى المبدعين 1 ديسمبر، 2024 حوار فلسفي مع الذكاء الاصطناعي: كيف تفكّر الآلة... 25 نوفمبر، 2024 قلق من استخدام الذكاء الاصطناعي لتصنيع أسلحة بيولوجية... 25 نوفمبر، 2024 قريبا: استخدام الذكاء الاصطناعي للكشف عن أورام الدماغ 24 نوفمبر، 2024 روبوت بـ”رؤية خارقة”.. يرى ما وراء الجدران! 17 نوفمبر، 2024 كاميرا مزودة بالذكاء الاصطناعي لقياس ضغط الدم والسكري 17 نوفمبر، 2024 الذكاء الاصطناعي يطرح على ترمب تحديات كونية وأبعد 14 نوفمبر، 2024 أدوات مميزة لتحويل أفكارك إلى تصميمات مرئية جذابة 13 نوفمبر، 2024 دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم... 7 نوفمبر، 2024