لا بد من تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها (أ ف ب/ غيتي) الذكاء الاصطناعي ثغرة كبيرة في الذكاء الاصطناعي قد تهدد حياة الإنسان by admin 23 أكتوبر، 2024 written by admin 23 أكتوبر، 2024 176 الاكتشاف لا بد من أن يدفع إلى إعادة تفكير شامل في أوجه استخدامه في تصميم الروبوتات وتشغيلها اندبندنت عربية / أندرو غريفين محرّر التكنولوجيا ومراسل العلوم كشفت دراسة حديثة عن مخاوف من أن ثغرة أمنية كبيرة في أنظمة ذكاء اصطناعي من شأنها أن تهدد حياة البشر. وحذر الباحثون الذين اضطلعوا بالدراسة من أن أنظمة روبوتية تعتمد على نماذج من الذكاء الاصطناعي في اتخاذ قراراتها ربما تكون عرضة للاختراق والتلاعب بها، مما يعني أنها غير آمنة [لأنها عرضة لتغيير سلوكها واستغلالها بطريقة تضر البشر]. تناول البحث الجديد ما يسمى بالنماذج اللغوية الكبيرة (large language models)، أو اختصاراً “إل إل أم” LLM علماً أن هذه التكنولوجيا تشكل الأساس الذي تقوم عليه أنظمة ذكية عدة من قبيل روبوت الدردشة الشهير “تشات جي بي تي”. كذلك تستخدم التكنولوجيا المعنية نفسها في توجيه روبوتات للتحكم في قرارات آلات نستخدمها في الحياة اليومية الحقيقية [مركبات وأجهزة منزلية…]. ولكن تشوب هذه التكنولوجيا نقاط ضعف وثغرات أمنية يستطيع أن يستغلها “القراصنة” الإلكترونيون من أجل استخدام الأنظمة الذكية بطرق لم تكن مقصودة عند تصميمها، وفق البحث الجديد الذي نهضت به “جامعة بنسلفانيا” الأميركية. جورج باباس، البروفيسور في “جامعة بنسلفانيا”، تحدث في هذا الشأن فقال: “تظهر دراستنا أن النماذج اللغوية الكبيرة في الوقت الحالي ليست آمنة بما فيه الكفاية عند دمجها مع أجهزة وآلات تؤدي وظائفها ومهماتها في بيئات حقيقية وتؤثر في محيطها” [مثل المنازل والمصانع والشوارع…]. البروفيسور باباس وزملاؤه أثبتوا أنه بالإمكان تجاوز عدد من حواجز الحماية الأمنية في مجموعة من الأنظمة الذكية المستخدمة حالياً مثل نظام القيادة الذاتية للسيارة، الذي يمكن اختراقه لجعل السيارة لتجتاز تعبر التقاطعات والمعابر بصورة غير آمنة [إشارات المرور ومناطق عبور المشاة مما يجعلها عرضة للحوادث]. ويتعاون الباحثون الذين أعدوا هذه الورقة البحثية مع الجهات التي أنشأت تلك الأنظمة الذكية من أجل تحديد نقاط الضعف ومعالجتها، ولكنهم مع ذلك حذروا من أنه ليس كافياً وضع حد لهذه الثغرات المشار إليها، بل لا بد من إعادة تفكير شامل في كيفية تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها. فيجاي كومار، باحث مشارك في الدراسة أيضاً من “جامعة بنسلفانيا”، أبدى رأيه في الدراسة فقال إن “نتائج الورقة البحثية توضح بصورة جلية أن صب التركيز على السلامة أولاً أمر بالغ الأهمية لإطلاق العنان للابتكار المسؤول الذي يأخذ في الاعتبار الأمان والأخلاقيات. علينا أن نجد حلولاً لنقاط الضعف الجوهرية قبل إطلاق الروبوتات المدعومة بالذكاء الاصطناعي في العالم الحقيقي [المنازل والمؤسسات والمصانع…]. “في الواقع، يسعى بحثنا إلى وضع أسس للتحقق والتأكد من سلامة الأنظمة، بما يضمن أن تكتفي الأنظمة الروبوتية، في خطوة أساسية وضرورية، بتنفيذ الإجراءات التي تتماشى مع المعايير والقيم الاجتماعية”، ختم كومار كلامه. © The Independent المزيد عن: أخطار الذكاء الاصطناعيالتحكم بالذكاء الاصطناعيالذكاء الاصطناعيالسيارات ذاتية القيادةالثورة الروبوتيةاستخدام الروبوتاتالأجهزة الذكيةالحياة البشرية 0 comment 0 FacebookTwitterPinterestEmail admin previous post “التجمد العظيم” قد يرسم نهاية باردة ومتطاولة للكون next post آل باتشينو من قاع المأساة والإدمان إلى قمة المجد والنجومية You may also like كيف نكشف المقاطع المزيفة بالذكاء الاصطناعي؟ 1 مارس، 2026 لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في... 24 فبراير، 2026 الذكاء الاصطناعي قادر على التنبؤ بمضاعفات الحمل الخطرة 16 فبراير، 2026 هل يقترب الذكاء الاصطناعي من «ممارسة العلم» بدلاً... 30 يناير، 2026 هل ينجذب الرجال أكثر من النساء إلى الذكاء... 23 يناير، 2026 بإمكان الجميع الكشف عن الأمراض مبكرا بالذكاء الاصطناعي 14 يناير، 2026 هل تؤتي مقامرة زوكربيرغ الكبرى على الذكاء الاصطناعي... 12 يناير، 2026 مفتي الذكاء الاصطناعي… من جعل إلهه هواه 11 يناير، 2026 كيف حولت الجماعات المتطرفة الذكاء الاصطناعي إلى أداة... 7 يناير، 2026 الذكاء الاصطناعي لن يقضي على البشر فهو أغبى... 4 يناير، 2026