جدال متشابك مشوب بمخاوف عميقة رافق الذكاء الاصطناعي التوليدي (بنترست) الذكاء الاصطناعي بيل غيتس يرى أن البشر يستطيعون السيطرة على الذكاء الاصطناعي by admin 28 يوليو، 2023 written by admin 28 يوليو، 2023 72 يدرجه ضمن الابتكارات الثورية ويقر بأخطاره وهلوساته المقلقة اندبندنت عربية لا ينتهي الجدال بشأن الذكاء الاصطناعي منذ أن كان أضغاث أحلام في نيتها التفلت من خيالات المفكرين واستوديوهات السينما ومختبرات العلماء، والخروج إلى أرض الواقع كي تقلب الموازين وتغير قواعد اللعبة، وصولاً إلى روبوت الدردشة الذكي “شات جي بي تي” ChatGPT الذي طرحته شركة “أوبن أي آي” OpenAI في نوفمبر (تشرين الثاني) 2022. وعلى طول مسار الجدال، بقيت الأسئلة المعلقة نفسها. هل الذكاء الاصطناعي بالذكاء الذي نتصوره؟ هل يحل بديلاً من الإنسان؟ هل تنقلب الآلات على البشر؟ هل تنتظرنا كارثة وجودية ستنتهي باندثارنا نحن “آباء” و”أمهات” هذا الذكاء، فنكون قد كتبنا نهايتنا بأيدينا؟ اليوم، نقرأ عن تلك العواقب المحتملة كأننا إزاء “قنبلة ذكاء اصطناعي” لا تختلف في شيء عن القنبلة النووية، ما عدا أنها في المتناول المباشر لأي كان، أو أننا إزاء جائحة حلت علينا وستطيح بنا جميعاً عاجلاً أم آجلاً، ولن يسعفنا أمامها لقاح مضاد ولا حتى مناعة القطيع. في الحقيقة، الحديث عن الذكاء الاصطناعي بوصفه خطراً مجتمعياً أشبه بجائحة عالمية أو سلاح نووي سبق أن خرج من أفواه مسؤولين بارزين في شركات عملاقة، من بينها “ديب مايند” DeepMind التابعة لشركة “غوغل” و”أوبن أي آي”، تقبض على مقاليد هذه الصناعة ولا تنفك تخوض سباقاً تلو آخر نحو تطوير برامج تكنولوجية أقوى وأذكى. هكذا، ربما يكون ذلك المارد المطواع الخارج من الفانوس السحري ليضع في متناولنا ما يحلو لنا وما نشتهي، هو نفسه الغول الأسطوري الذي رسمته بعض خيالات العرب بوصفه نوعاً من الشياطين يظهر للناس في الفلاة، فيتلوَّن لهم في صور شتى ويضللهم ويهلكهم. إنه لا ريب مشهد “مخيف” وفق وصف جيفري هينتون “عراب الذكاء الاصطناعي” الذي استقال من “غوغل” كي يندد بالأخطار التي تنطوي عليها هذه التكنولوجيا، ولا يختلف معه في الرأي زملاء من أرباب الصناعة نفسها. ولكن في المقلب الآخر، نظر خبراء كثر إلى النصف الممتلئ من الكأس إنما من دون أن يغضوا البصر عن النصف الفارغ منه. أحد هؤلاء بيل غيتس، المؤسس المشارك لشركة “مايكروسوفت” وصاحب اليد الطولى في العمل الخيري. في رأي غيتس، تمثل أمامنا اليوم حقيقتان، الأولى أنه من بين كل الكتابات حول أخطار الذكاء الاصطناعي، لا يملك أحد الإجابات كافة. والحقيقة الأخرى إنه، “بالنسبة إلي أن مستقبل الذكاء الاصطناعي ليس قاتماً وفق ما يعتقد البعض أو وردياً بحسب ما يرى آخرون. الأخطار حقيقية، ولكني متفائل بالقدرة على التعامل معها ومعالجتها”. جاءت كلماته تلك في مقالة شخصية نشرها أخيراً على مدونته الإلكترونية الشخصية “غيتس نوتس” Gates Notes، وقد أقر فيه غيتس بالخطر المهول الذي يجلبه معه الذكاء الاصطناعي، وبالمخاوف التي يسمعها ويقرأ الكثير عنها. ولكن، يثير غيتس أسئلة من نوع كيف عساه سيكون مصير الناس الذين فقدوا وظائفهم بسبب آلة ذكية؟ وهل يؤثر الذكاء الاصطناعي في نتائج الانتخابات؟ أما السؤال الأهم الذي طرحه الملياردير، ماذا لو قرر هذا الذكاء الاصطناعي في المستقبل أنه لا يحتاج إلى البشر بعد الآن، ويريد التخلص منا؟ إنها أسئلة وجيهة ومنطقية، لا سيما سؤاله الأخير الذي يبدو أن الروبوت الأنثى “صوفيا” قد أجابت عنه في “القمة العالمية عن الذكاء الاصطناعي للصالح العام”، إذ بدا واضحاً أنها لم تحقق تقدماً يذكر بعدما قالت جهاراً في 2016 بأنها تريد تدمير البشر، إذ تفاخرت الروبوت الـ”أندرويد” الأكثر تقدماً وشهرة، وأول روبوت يشغل وظيفة سفير برنامج الأمم المتحدة للتنمية بأن لدى “الروبوتات الشبيهة بالبشر القدرة على القيادة بكفاءة وفاعلية تفوقان القادة البشر، ذلك أنها غير مشوبة بالانحيازات التي تؤثر في قرارات هؤلاء”. في رأي غيتس، لا بد من أخذ تلك المخاوف على محمل الجد، ولكن ثمة “سبباً وجيهاً يحملنا على الاعتقاد بأن في مقدورنا التعامل معها وإيجاد الحلول المناسبة لها. إنها ليست هذه المرة الأولى التي يطرح فيها ابتكار كبير تهديدات جديدة تستدعي السيطرة عليها. وقد أثبت التاريخ أننا نجحنا في ذلك سابقاً”. وكذلك يشير غيتس إلى أن السيارات وأجهزة الكمبيوتر الشخصية والإنترنت وغيرها، شكلت كلها ابتكارات مراحل تحول في تاريخ البشرية الحديث، وأثارت مشكلات عدة، ولكنها مع ذلك صارت في نهاية المطاف وسائل أفضل ومفيدة أكثر. ويضرب غيتس مثلاً بالسيارات، فبعد فترة وجيزة من خروج الدفعة الأولى منها في رحلات على الطرقات، تعرضت لأول حادثة سير، بيد أن هذه الحقيقة لم تدفعنا إلى حظر استخدام السيارات، بل إلى صياغة قوانين تضع حدوداً للسرعة، ومعايير للسلامة، وتراخيص، وغرامات القيادة تحت تأثير الكحول، وغيرها. هكذا، يؤكد غيتس أن البشر قد تكيفوا مع تغيرات كبرى شهدناها في الماضي، وسيفعلون ذلك مع الذكاء الاصطناعي أيضاً. مثلاً، سيترك الذكاء الاصطناعي تأثيراً مهولاً في التعليم، وكذلك فعلت الآلات الحاسبة المحمولة قبل بضعة عقود، وأخيراً، الكمبيوترات في الصفوف الدراسية. وعلى طريقة أبي نواس “دع عنك لومي فإن اللوم إغراء/ وداوني بالتي كانت هي الداء”، يرى غيتس أن كثيراً من الأخطار الملحة الناجمة عن الذكاء الاصطناعي يكمن حلها بواسطة تلك التقنية نفسها. ويبسط تلك الأمور على النحو التالي: 01- تقويض الانتخابات والديمقراطية بسبب التزييف العميق والمعلومات المغلوطة في الحقيقة، ليس نشر الأكاذيب باتجاه جديد لدى الناس. اليوم، يستخدمون التكنولوجيا وبالأمس توسلوا الكتب والمنشورات. الآن، يسمح الذكاء الاصطناعي لأي شخص تقريباً بإنشاء صوت وفيديو مزيفين، أو ما يُسمى بالتزييف العميق. سبق أن رأينا مقاطع فيديو مزيفة تعرض لقطات ملفقة لسياسيين معروفين. تخيل أنه، والكلام لغيتس، في صباح يوم انتخابات كبرى، انتشر مقطع فيديو يظهر فيه مرشح ما وهو يسرق أحد البنوك. كم عدد المقترعين الذين سيشاهدون التسجيل ويغيرون أصواتهم في اللحظة الأخيرة، لا سيما أن تبيان حقيقة زيفه سيستغرق ساعات عدة؟ هكذا، في مقدور التزييف أن يقلب الموازين، خصوصاً في انتخابات تنطوي على نتائج متقاربة. لم نحل بعد مشكلة المعلومات المضللة والتزييف العميق. ولكن أمرين يبعثان شعوراً متفائلاً في نفس غيتس. الأول، أن الناس سيدركون أن الأمور لا تؤخذ بظاهرها دائماً. طوال سنوات، وقع مستخدمو البريد الإلكتروني في عمليات احتيال لسرقة أموالهم. ولكن معظمهم تعلموا في النهاية أن يتفحصوا تلك الرسائل ملياً قبل الرد عليها. والثاني، أن في مقدور الذكاء الاصطناعي المساعدة في تحديد التزييف العميق، وليس إنشائه فحسب. مثلاً، طورت شركة التكنولوجيا “إنتل” كاشفاً للتزييف العميق، وتعكف “الوكالة الأميركية لبحوث الدفاع المتقدمة” المعروفة اختصاراً باسم “داربا”DARPA على تصميم تكنولوجيا تكشف أي تلاعب في الفيديو أو الصوت. 02- شن هجمات إلكترونية على المستخدمين والحكومات اليوم، حينما يرغب المقرصنون الإلكترونيون في العثور على عيوب قابلة للاستغلال في البرامج الإلكترونية، يكتبون شيفرات برمجية تضرب نقاط الضعف المحتملة إلى أن يكتشفوا طريقة لقرصنة هذا البرنامج أو ذاك. ستسرع نماذج الذكاء الاصطناعي هذه العملية عبر مساعدة المقرصنين في كتابة تعليمات برمجية أكثر فاعلية. كذلك سيتمكن هؤلاء من استخدام المعلومات العامة حول الأفراد، مثل مكان عملهم وهويات أصدقائهم، من أجل تطوير هجمات قرصنة أكثر تقدماً. ولكن الخبر السار، وفق غيتس، أن الذكاء الاصطناعي نفسه المُستخدم لأهداف سيئة في هذه الحالة، يخدم في الوقت عينه الأغراض الجيدة. وفي المقابل، يتوجب على فرق الأمن السيبراني الحكومية والخاصة امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن ينجح المجرمون في الاستفادة منها. ولهذا السبب أيضاً، علينا ألا نمنع الخبراء من تطوير برامج جديدة في الذكاء الاصطناعي، خلافاً لدعوة البعض. من ناحية أخرى، يُذكر أن إيلون ماسك ومئات الخبراء العالميين دعوا عبر عريضة إلى التوقف، لمدة ستة أشهر، عن تطوير برامج أقوى من “تشات جي بي تي 4” لما تحمله من “أخطار كبيرة على البشرية”. وفي المقالة نفسها، يشير غيتس إلى إن مجرمي الإنترنت لن يتوقفوا عن ابتكار أدوات جديدة، وكذلك الأمر بالنسبة إلى اللاعبين الأشرار الذين يرغبون في استغلال الذكاء الاصطناعي من أجل تصميم أسلحة نووية وهجمات إرهابية بيولوجية. بالتالي، لا بد من أن تستمر الجهود المبذولة لوقفها بنفس الوتيرة. كذلك يحضر هنا السباق العالمي إلى التسلح بأدوات أقوى من الذكاء الاصطناعي هدفها تصميم وشن هجمات إلكترونية بين الدول. ولكن لما كانت كل حكومة تسعى إلى امتلاك أقوى التكنولوجيات كي تردع هجمات خصومها، ربما يحول هذا الحافز دون السماح لأي جهة باحتلال مرتبة متقدمة في هذا السباق. ويشير غيتس إلى نظام حظر انتشار الأسلحة النووية في العالم الذي تشوبه عيوب طبعاً، ولكنه مع ذلك ردع حتى الآن نشوب حرب نووية شاملة. لذا، على الحكومات التفكير في إنشاء هيئة عالمية للذكاء الاصطناعي مماثلة لـ”الوكالة الدولية للطاقة الذرية”. لوحة من صنع أحد مختبرات الذكاء الاصطناعي التوليدي فازت بجائزة أميركية للرسم (ميدجورني) 03- فقدان الناس وظائفهم في السنوات القليلة المقبلة، سيتمثل التأثير الرئيس للذكاء الاصطناعي على سوق العمل، بالمساعدة في أداء الوظائف بشكل أكثر كفاءة. وإذ يعرج غيتس على مقالة أخرى له نشرت في فبراير (شباط) الماضي، فإنه يوضح أنه حينما ترتفع الإنتاجية في النتيجة يستفيد المجتمع، إذ تحصل القوى العاملة على الوقت لإنجاز مهام أخرى، في العمل والمنزل. وفي المقابل، لن ينتفي الطلب على المساعدين من البشر أبداً، في التدريس مثلاً، وتقديم الرعاية الصحية للمرضى، والوقوف إلى جانب المسنين. ولكن بعض العمال سيحتاجون إلى الدعم وإعادة التدريب في غمرة التحول إلى أماكن عمل مدعومة بالذكاء الاصطناعي. عند هذا المفصل، يجيء دور الحكومات والشركات في تجنب حدوث اضطراب في حياة الناس على شاكلة الانحدار في عدد وظائف التصنيع في الولايات المتحدة. ولنضع في الاعتبار أيضاً أننا لسنا إزاء سابقة من نوعها. وليست هذه المرة الأولى التي تقود فيها تكنولوجيا جديدة إلى تحول كبير في سوق العمل. ولا يعتقد غيتس أن تأثير الذكاء الاصطناعي سيماثل في حدته تأثير الثورة الصناعية، لكنه بالتأكيد سيكون مهولاً بحجم إدخال الكمبيوتر الشخصي إلى الوظائف. صحيح أن تطبيقات معالجة النصوص لا تلغي العمل المكتبي، ولكنها غيرته تماماً. كان على أرباب العمل والموظفين التكيف، وقد فعلوا ذلك. 04- يرث الذكاء الاصطناعي تحيزاتنا ويختلق الأمور في العادة، تطرأ “هلوسة” الذكاء الاصطناعي حينما لا يفهم الجهاز سياق طلبك، وفق ما يشرح غيتس. هكذا، يقدم إجابة غير صحيحة أو غير مرتبطة بالسياق المعطى إنما ذات درجة عالية من الثقة تجعلها تبدو مقنعة ظاهرياً. وبحسب غيتس، جرب أن تطلب من الذكاء الاصطناعي كتابة قصة قصيرة حول قضاء إجازة على القمر، وفلربما منحك إجابة تفيض بالخيال. واسأله مساعدتك في التخطيط لرحلة إلى تنزانيا، وربما يحاول إرسالك إلى فندق غير موجود أصلاً. ويتمثل الخطر الآخر الذي يطرحه الذكاء الاصطناعي هنا في أنه يعبّر أو حتى يفاقم، تحيزات قائمة أصلاً ضد أشخاص من هويات وأعراق وإثنيات معينة، وما إلى ذلك. واستطراداً، إذا أردنا أن نفهم السبب وراء الهلوسات والتحيزات، يتوجب علينا أن نعرف الكيفية التي تعمل بها نماذج الذكاء الاصطناعي الأكثر شيوعاً اليوم. إنها في الأساس إصدارات معقدة جداً من التعليمات البرمجية التي تسمح لتطبيق البريد الإلكتروني الخاص بك بالتنبؤ بالكلمة التالية التي ستكتبها، تراها تتفحص كميات ضخمة من النصوص حول كل شيء متاح عبر الإنترنت، وتحللها للعثور على أنماط بلغة البشر. وحينما تطرح سؤالاً على الذكاء الاصطناعي، يروح يبحث في الكلمات التي استخدمتها ثم يفتش عن أجزاء نصية مرتبطة غالباً بهذه الكلمات. إذا كتبت “اذكر مكونات الفطائر”، فقد يلاحظ البرنامج أن الكلمات “الدقيق والسكر والملح ومسحوق الخبز والحليب والبيض” غالباً ما تظهر مع هذه العبارة. ثم، بناءً على ما يعرفه عن الترتيب الذي تظهر به هذه الكلمات عادةً، يولد إجابته، يقول غيتس. تشرح هذه العملية لماذا قد يتعرض ذكاء اصطناعي ما للهلوسة أو يبدو متحيزاً. لا يكون يحتوي على سياق للأسئلة التي تطرحها أو المعلومات التي تخبره بها. إذا أخبرت أحد تلك النماذج أنه ارتكب خطأ، ربما يقول، “آسف، لقد أخطأت في الكتابة”. ولكن هذه هلوسة، ذلك أنه لم يكتب أي شيء. يقول ذلك لأنه تفحص نصاً كافياً ليعرف أن “آسف، لقد أخطأت في كتابة ذلك” جملة يكتبها الناس غالباً بعد أن يصوب لهم أحد ما خطأ وقعوا فيه. وبالمثل، بحسب ما يشرح غيتس، ترث نماذج الذكاء الاصطناعي أي تحيزات مدموجة في البيانات التي تدربت عليها. إذا قرأ المرء كثيراً عن الأطباء مثلاً، وكان النص في معظمه يدور حول أطباء ذكور، فإن إجاباته ستفترض أن معظم الأطباء من الرجال. وعلى رغم أن بعض الباحثين يعتقدون أن الهلوسة مشكلة متأصلة في الذكاء الاصطناعي، يؤكد غيتس أنه لا يتفق مع هذا التفكير، معرباً عن تفاؤله بأنه، بمرور الوقت، يمكن تعليم نماذج الذكاء الاصطناعي التمييز بين الحقيقة والخيال. و”أوبن أي آي”، مثلاً، تقوم بمجهود واعد على هذه الجبهة. وبطبيعة الحال، على كل شخص يستخدم الذكاء الاصطناعي أن يكون على دراية بمشكلة التحيز، وأن يصبح مستخدماً مستنيراً. ربما يكون المقال الذي تطلب من الذكاء الاصطناعي صياغته مليئاً بالتحيزات، على غرار ما يحصل مع الأخطاء في العالم الفعلي. لذا الأجدر بك أن تتحقق من الانحيازات التي تشوب الذكاء الاصطناعي الذي تستخدمه، وكذلك تحيزاتك. حدوث ثورة جذرية في التعليم من أبرز رهانات الذكاء الاصطناعي التوليدي (ثروغلاس.نت) 05- تكاسل التلاميذ لأن الذكاء الاصطناعي سيقوم بالمجهود نيابة عنهم يعتري معلمين كثراً قلق بشأن الطرق التي سيقوض بها الذكاء الاصطناعي عملهم مع التلاميذ والطلاب. في وقت يسمح لأي شخص لديه إنترنت استخدام الذكاء الاصطناعي لكتابة مسودة جيدة لمقال ما، ما الذي يمنع التلاميذ من الادعاء من أنها من بنات أفكارهم؟ في الواقع، تتعلم أدوات من الذكاء الاصطناعي الكشف عما إذا كانت النصوص مشغولة بواسطة إنسان أو آلة، ما يسمح للمدرسين برصد حالات الغش. لكن بعض هؤلاء لا يحاولون منع طلابهم من استخدام الذكاء الاصطناعي في كتاباتهم، بل يشجعونهم على الاستفادة منه. في يناير (كانون الثاني) الماضي، كتبت مدرسة لغة إنجليزية تدعى شيري شيلدز مقالة في صحيفة “إديوكيشين ويك” حول كيفية استخدامها “شات جي بي تي” في فصلها الدراسي، موضحة أنه ساعد تلاميذها في مهماتهم كافة، بدءاً من كتابة الموضوعات وصولاً إلى الملخصات، وحتى تقديم ملاحظات حول عملهم. في رأيها، “الأجدر بالمدرسين تبني تقنية الذكاء الاصطناعي بوصفها أداة أخرى يمكن للتلاميذ الاستفادة منها، تماماً كما علمناهم سابقاً كيفية إجراء بحث مناسب باستخدام “غوغل”. لذا، على المدرسين صياغة دروس واضحة حول المساعدة التي يوفرها برنامج الدردشة “شات جي بي تي” في كتابة المقالات. في الحقيقة، من شأن الاعتراف بوجود الذكاء الاصطناعي ومساعدة التلاميذ على العمل معه إحداث ثورة في طريقة التدريس”. يعود غيتس بالذاكرة إلى انتشار الآلات الحاسبة الإلكترونية في سبعينيات القرن العشرين وثمانينياته. يومذاك، شعر بعض مدرسي الرياضيات بقلق من أن التلاميذ لن يعودوا يتعلموا كيفية تطبيق العمليات الحسابية الأساسية، ولكن آخرين تبنوا التكنولوجيا الجديدة وركزوا على مهارات من التفكير أبعد من العمليات الحسابية نفسها. واستكمالاً، يملك الذكاء الاصطناعي طريقة أخرى قد تساعد في الكتابة والتفكير النقدي. في هذه الأيام الأولى لصعوده، وفي وقت ما زالت الهلوسة والتحيزات تمثل مشكلة مهمة، يستطيع المدرسون استغلال الذكاء الاصطناعي لإنشاء مقالات ثم الاشتغال مع المتعلمين على التحقق من مدى صحتها. مثلاً، والكلام أيضاً لبيل غيتس، تقدم منظمات تعليمية غير ربحية مثل “أكاديمية خان” و”أو إي آر بروجيكت” OER Project، التي يمولها غيتس نفسه، للمدرسين والتلاميذ أدوات مجانية عبر الإنترنت تصب تركيزها على التحقق من صوابية أو خطأ أي من المزاعم. بالتالي، يرى غيتس أنه يتوجب علينا أن نتأكد من أن تساعد البرمجيات التعليمية في سد الفجوة في التحصيل العلمي، بدلاً من جعلها أسوأ. ويلاحظ أن برامج اليوم موجهة في الغالب نحو تمكين التلاميذ المتحمسين للعلم في الأساس. إذ تستطيع مساعدتك في وضع خطة دراسية وتوجيهك نحو موارد جيدة، واختبار معلوماتك. لكنها لا تعرف حتى الآن كيفية جذبك إلى موضوع لست مهتماً به أصلاً. سيكون على المطورين، وفق غيتس، إيجاد حل لهذه المشكلة كي يستفيد التلاميذ من الفئات كافة من الذكاء الاصطناعي. ماذا بعد؟ يوضح غيتس أنه بات متوجباً على الحكومات تعزيز الخبرة في مجال الذكاء الاصطناعي كي تنجح في وضع قوانين ومعايير يحتكم إليها استخدام هذه التكنولوجيا الجديدة. عليها أن تتصدى للمعلومات المضللة والتزييف العميق والتهديدات الأمنية والتغيرات في سوق العمل والتأثير على التعليم. وعلى القادة السياسيين أن يكونوا مجهزين لإجراء حوار مستنير ومدروس مع ناخبيهم. وفي القطاع الخاص، يرى غيتس أن على شركات الذكاء الاصطناعي متابعة عملها بأمان ومسؤولية. ويشمل ذلك حماية خصوصية الناس، والتأكد من أن نماذج الذكاء الاصطناعي الخاصة بها تعبر عن القيم الإنسانية الأساسية، وتخفف التحيز، فيما تنشر الفوائد لأكبر عدد ممكن من الناس، وتحول دون استخدام المجرمين أو الإرهابيين لهذه التكنولوجيا. وأخيراً، يشجع بيل غيتس الجميع على متابعة التطورات في الذكاء الاصطناعي. في رأيه، إنه أكثر الابتكارات التحولية التي سيشهدها أي منا في حياتنا، وسيعتمد النقاش العام المجدي على معرفة الجميع بالتكنولوجيا وفوائدها وأخطارها. وستكون الفوائد مهولة، وأفضل سبب للاعتقاد بأن في أيدينا التصدي للأخطار المستجدة يتلخص في أننا نجحنا سابقاً في مثل هذا التحدي. في المحصلة، شئنا أم أبينا، لقد حلّ علينا عصر الذكاء الاصطناعي بمنافعه وأضراره، حقائقه وتزييفه، حنكته وحماقاته، انفلاته وتنظيمه. ويبدو أن تحقيق أقصى استفادة من هذه التكنولوجيا في مقابل تقليص جبروتها قدر الإمكان مرهونان بنا نحن أولاً وأخيراً. وفي نهاية المطاف، لعلنا نكون محظوظين إذ نعيش هذه الثورة الحافلة بفرص تنتظر منا انتهازها. المزيد عن: بيل غيتسمايكروسوفتأوبن إيه ايالذكاء الاصطناعيتشات جي بي تيإيلون ماسك 0 comment 0 FacebookTwitterPinterestEmail admin previous post الكويت تعتزم بدء التنقيب عن الغاز والنفط في حقل الدرة next post الألماني هوسرل غامر في تجديد الفلسفة وإنقاذها You may also like حوار فلسفي مع الذكاء الاصطناعي: كيف تفكّر الآلة... 25 نوفمبر، 2024 قلق من استخدام الذكاء الاصطناعي لتصنيع أسلحة بيولوجية... 25 نوفمبر، 2024 قريبا: استخدام الذكاء الاصطناعي للكشف عن أورام الدماغ 24 نوفمبر، 2024 روبوت بـ”رؤية خارقة”.. يرى ما وراء الجدران! 17 نوفمبر، 2024 كاميرا مزودة بالذكاء الاصطناعي لقياس ضغط الدم والسكري 17 نوفمبر، 2024 الذكاء الاصطناعي يطرح على ترمب تحديات كونية وأبعد 14 نوفمبر، 2024 أدوات مميزة لتحويل أفكارك إلى تصميمات مرئية جذابة 13 نوفمبر، 2024 دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم... 7 نوفمبر، 2024 الذكاء الاصطناعي لاعب دبلوماسي ومفاوض على طاولة السلام 7 نوفمبر، 2024 كيف وظفت دول عظمى الذكاء الاصطناعي في الفضاء؟ 2 نوفمبر، 2024