الثلاثاء, ديسمبر 3, 2024
الثلاثاء, ديسمبر 3, 2024
Home » ثغرة كبيرة في الذكاء الاصطناعي قد تهدد حياة الإنسان

ثغرة كبيرة في الذكاء الاصطناعي قد تهدد حياة الإنسان

by admin

 

الاكتشاف لا بد من أن يدفع إلى إعادة تفكير شامل في أوجه استخدامه في تصميم الروبوتات وتشغيلها

اندبندنت عربية / أندرو غريفين محرّر التكنولوجيا ومراسل العلوم

كشفت دراسة حديثة عن مخاوف من أن ثغرة أمنية كبيرة في أنظمة ذكاء اصطناعي من شأنها أن تهدد حياة البشر.

وحذر الباحثون الذين اضطلعوا بالدراسة من أن أنظمة روبوتية تعتمد على نماذج من الذكاء الاصطناعي في اتخاذ قراراتها ربما تكون عرضة للاختراق والتلاعب بها، مما يعني أنها غير آمنة [لأنها عرضة لتغيير سلوكها واستغلالها بطريقة تضر البشر].

تناول البحث الجديد ما يسمى بالنماذج اللغوية الكبيرة (large language models)، أو اختصاراً “إل إل أم” LLM علماً أن هذه التكنولوجيا تشكل الأساس الذي تقوم عليه أنظمة ذكية عدة من قبيل روبوت الدردشة الشهير “تشات جي بي تي”. كذلك تستخدم التكنولوجيا المعنية نفسها في توجيه روبوتات للتحكم في قرارات آلات نستخدمها في الحياة اليومية الحقيقية [مركبات وأجهزة منزلية…].

ولكن تشوب هذه التكنولوجيا نقاط ضعف وثغرات أمنية يستطيع أن يستغلها “القراصنة” الإلكترونيون من أجل استخدام الأنظمة الذكية بطرق لم تكن مقصودة عند تصميمها، وفق البحث الجديد الذي نهضت به “جامعة بنسلفانيا” الأميركية.

جورج باباس، البروفيسور في “جامعة بنسلفانيا”، تحدث في هذا الشأن فقال: “تظهر دراستنا أن النماذج اللغوية الكبيرة في الوقت الحالي ليست آمنة بما فيه الكفاية عند دمجها مع أجهزة وآلات تؤدي وظائفها ومهماتها في بيئات حقيقية وتؤثر في محيطها” [مثل المنازل والمصانع والشوارع…].

البروفيسور باباس وزملاؤه أثبتوا أنه بالإمكان تجاوز عدد من حواجز الحماية الأمنية في مجموعة من الأنظمة الذكية المستخدمة حالياً مثل نظام القيادة الذاتية للسيارة، الذي يمكن اختراقه لجعل السيارة لتجتاز تعبر التقاطعات والمعابر بصورة غير آمنة [إشارات المرور ومناطق عبور المشاة مما يجعلها عرضة للحوادث].

ويتعاون الباحثون الذين أعدوا هذه الورقة البحثية مع الجهات التي أنشأت تلك الأنظمة الذكية من أجل تحديد نقاط الضعف ومعالجتها، ولكنهم مع ذلك حذروا من أنه ليس كافياً وضع حد لهذه الثغرات المشار إليها، بل لا بد من إعادة تفكير شامل في كيفية تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها.

فيجاي كومار، باحث مشارك في الدراسة أيضاً من “جامعة بنسلفانيا”، أبدى رأيه في الدراسة فقال إن “نتائج الورقة البحثية توضح بصورة جلية أن صب التركيز على السلامة أولاً أمر بالغ الأهمية لإطلاق العنان للابتكار المسؤول الذي يأخذ في الاعتبار الأمان والأخلاقيات. علينا أن نجد حلولاً لنقاط الضعف الجوهرية قبل إطلاق الروبوتات المدعومة بالذكاء الاصطناعي في العالم الحقيقي [المنازل والمؤسسات والمصانع…].

“في الواقع، يسعى بحثنا إلى وضع أسس للتحقق والتأكد من سلامة الأنظمة، بما يضمن أن تكتفي الأنظمة الروبوتية، في خطوة أساسية وضرورية، بتنفيذ الإجراءات التي تتماشى مع المعايير والقيم الاجتماعية”، ختم كومار كلامه.

© The Independent

المزيد عن: أخطار الذكاء الاصطناعيالتحكم بالذكاء الاصطناعيالذكاء الاصطناعيالسيارات ذاتية القيادةالثورة الروبوتيةاستخدام الروبوتاتالأجهزة الذكيةالحياة البشرية

 

 

You may also like

Editor-in-Chief: Nabil El-bkaili

CANADAVOICE is a free website  officially registered in NS / Canada.

 We are talking about CANADA’S international relations and their repercussions on

peace in the world.

 We care about matters related to asylum ,  refugees , immigration and their role in the development of CANADA.

We care about the economic and Culture movement and living in CANADA and the economic activity and its development in NOVA  SCOTIA and all Canadian provinces.

 CANADA VOICE is THE VOICE OF CANADA to the world

Published By : 4381689 CANADA VOICE \ EPUBLISHING \ NEWS – MEDIA WEBSITE

Tegistry id 438173 NS-HALIFAX

1013-5565 Nora Bernard str B3K 5K9  NS – Halifax  Canada

1 902 2217137 –

Email: nelbkaili@yahoo.com 

 

Editor-in-Chief : Nabil El-bkaili
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00