لا بد من تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها (أ ف ب/ غيتي) الذكاء الاصطناعي ثغرة كبيرة في الذكاء الاصطناعي قد تهدد حياة الإنسان by admin 23 أكتوبر، 2024 written by admin 23 أكتوبر، 2024 104 الاكتشاف لا بد من أن يدفع إلى إعادة تفكير شامل في أوجه استخدامه في تصميم الروبوتات وتشغيلها اندبندنت عربية / أندرو غريفين محرّر التكنولوجيا ومراسل العلوم كشفت دراسة حديثة عن مخاوف من أن ثغرة أمنية كبيرة في أنظمة ذكاء اصطناعي من شأنها أن تهدد حياة البشر. وحذر الباحثون الذين اضطلعوا بالدراسة من أن أنظمة روبوتية تعتمد على نماذج من الذكاء الاصطناعي في اتخاذ قراراتها ربما تكون عرضة للاختراق والتلاعب بها، مما يعني أنها غير آمنة [لأنها عرضة لتغيير سلوكها واستغلالها بطريقة تضر البشر]. تناول البحث الجديد ما يسمى بالنماذج اللغوية الكبيرة (large language models)، أو اختصاراً “إل إل أم” LLM علماً أن هذه التكنولوجيا تشكل الأساس الذي تقوم عليه أنظمة ذكية عدة من قبيل روبوت الدردشة الشهير “تشات جي بي تي”. كذلك تستخدم التكنولوجيا المعنية نفسها في توجيه روبوتات للتحكم في قرارات آلات نستخدمها في الحياة اليومية الحقيقية [مركبات وأجهزة منزلية…]. ولكن تشوب هذه التكنولوجيا نقاط ضعف وثغرات أمنية يستطيع أن يستغلها “القراصنة” الإلكترونيون من أجل استخدام الأنظمة الذكية بطرق لم تكن مقصودة عند تصميمها، وفق البحث الجديد الذي نهضت به “جامعة بنسلفانيا” الأميركية. جورج باباس، البروفيسور في “جامعة بنسلفانيا”، تحدث في هذا الشأن فقال: “تظهر دراستنا أن النماذج اللغوية الكبيرة في الوقت الحالي ليست آمنة بما فيه الكفاية عند دمجها مع أجهزة وآلات تؤدي وظائفها ومهماتها في بيئات حقيقية وتؤثر في محيطها” [مثل المنازل والمصانع والشوارع…]. البروفيسور باباس وزملاؤه أثبتوا أنه بالإمكان تجاوز عدد من حواجز الحماية الأمنية في مجموعة من الأنظمة الذكية المستخدمة حالياً مثل نظام القيادة الذاتية للسيارة، الذي يمكن اختراقه لجعل السيارة لتجتاز تعبر التقاطعات والمعابر بصورة غير آمنة [إشارات المرور ومناطق عبور المشاة مما يجعلها عرضة للحوادث]. ويتعاون الباحثون الذين أعدوا هذه الورقة البحثية مع الجهات التي أنشأت تلك الأنظمة الذكية من أجل تحديد نقاط الضعف ومعالجتها، ولكنهم مع ذلك حذروا من أنه ليس كافياً وضع حد لهذه الثغرات المشار إليها، بل لا بد من إعادة تفكير شامل في كيفية تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها. فيجاي كومار، باحث مشارك في الدراسة أيضاً من “جامعة بنسلفانيا”، أبدى رأيه في الدراسة فقال إن “نتائج الورقة البحثية توضح بصورة جلية أن صب التركيز على السلامة أولاً أمر بالغ الأهمية لإطلاق العنان للابتكار المسؤول الذي يأخذ في الاعتبار الأمان والأخلاقيات. علينا أن نجد حلولاً لنقاط الضعف الجوهرية قبل إطلاق الروبوتات المدعومة بالذكاء الاصطناعي في العالم الحقيقي [المنازل والمؤسسات والمصانع…]. “في الواقع، يسعى بحثنا إلى وضع أسس للتحقق والتأكد من سلامة الأنظمة، بما يضمن أن تكتفي الأنظمة الروبوتية، في خطوة أساسية وضرورية، بتنفيذ الإجراءات التي تتماشى مع المعايير والقيم الاجتماعية”، ختم كومار كلامه. © The Independent المزيد عن: أخطار الذكاء الاصطناعيالتحكم بالذكاء الاصطناعيالذكاء الاصطناعيالسيارات ذاتية القيادةالثورة الروبوتيةاستخدام الروبوتاتالأجهزة الذكيةالحياة البشرية 0 comment 0 FacebookTwitterPinterestEmail admin previous post “التجمد العظيم” قد يرسم نهاية باردة ومتطاولة للكون next post آل باتشينو من قاع المأساة والإدمان إلى قمة المجد والنجومية You may also like دراسة تحذِّر من الوقوع في «علاقات حب» مع... 20 أبريل، 2025 كتاب بلا كاتب: أول كتاب فلسفي بتوقيع الذكاء... 18 أبريل، 2025 كيف يمكن للذكاء الاصطناعي منح الوظائف للعرب؟ 13 أبريل، 2025 الذكاء الاصطناعي يعيد خبراء “القدرات البشرية” إلى مقاعد... 13 أبريل، 2025 الذكاء الاصطناعي لن يشكل خطرا على الفنون والآداب 13 أبريل، 2025 ثورة وشيكة في توقعات الطقس بفضل الذكاء الاصطناعي 11 أبريل، 2025 برسالة “ذكاء اصطناعي” صوتية.. عصابات تبتز الفتيات في... 10 أبريل، 2025 روائي فرنسي يواجه روبوت الذكاء الاصطناعي… والنتيجة مذهلة 10 أبريل، 2025 الحب بالذكاء الاصطناعي… جاذبية ومخاطر 10 أبريل، 2025 سؤال “الضمير” الفلسفي الذي باغت “مايكروسوفت” في عقر... 9 أبريل، 2025