سخر مستخدمو وسائل التواصل الاجتماعي من "غوغل"، وانتقدوها بسبب صور غير دقيقة تاريخياً (أ ف ب) الذكاء الاصطناعي زلات الذكاء الاصطناعي تضيء على نفوذ عمالقة التكنولوجيا by admin 19 مارس، 2024 written by admin 19 مارس، 2024 179 “غوغل” تعترف بوقوع أخطاء في عملية توليد الصور عبر برنامج “جيميناي” اندبندنت عربية / أ ف ب نموذج قائم على الذكاء الاصطناعي يخترع نازيين من ذوي البشرة السمراء، خطأ وقع فيه برنامج “جيميناي” المطور من “غوغل” كان ليمر مرور الكرام بعد المسارعة إلى تصحيحه، لكنه يسلط الضوء على النفوذ المفرط الذي تتمتع به حفنة من الشركات على هذه التكنولوجيا الأساسية بشكل متزايد. وقد تحدث الرئيس التنفيذي لمجموعة “غوغل” سوندر بيتشاي الشهر الماضي عن أخطاء “غير مقبولة على الإطلاق” من جانب تطبيق “جيميناي أي آي” التابع لشركته، بعد أن أجبرته زلات مثل صور لقوات نازية متنوعة عرقياً على منع المستخدمين موقتاً من إنشاء صور لأشخاص. وسخر مستخدمو وسائل التواصل الاجتماعي من “غوغل”، وانتقدوها بسبب صور غير دقيقة تاريخياً، مثل تلك التي تظهر امرأة أميركية سوداء تنتخب عضواً في مجلس الشيوخ في القرن الـ 19، فيما لم يحصل ذلك على أرض الواقع قبل عام 1992. اختبار أكثر شمولاً وقال المؤسس المشارك في “غوغل” سيرغي برين، في “هاكاثون” للذكاء الاصطناعي أقيم أخيراً “لقد حصلت أخطاء بالتأكيد لدينا في عملية توليد الصور”، مضيفاً أنه كان ينبغي على الشركة اختبار برنامج “جيميناي” بشكل أكثر شمولاً. واعتبر أشخاص جرت مقابلتهم خلال مهرجان “ساوث باي ساوثوست” الشهير للفنون والتكنولوجيا في أوستن، أن تعثر “جيميناي” يسلط الضوء على القوة المفرطة التي تمتلكها حفنة من الشركات على منصات الذكاء الاصطناعي التي تتجه لتغيير طريقة عيش الناس وعملهم. ورأى المحامي ورائد الأعمال في مجال التكنولوجيا جوشوا ويفر أن “غوغل” اعتمدت في برمجيتها هذه في بادئ الأمر مساراً يعتنق بشكل “مفرط” مبادئ حركة الـ”ووك” (المناهضة لكل أشكال التمييز وعدم المساواة)، ما يعني أنها ذهبت بعيداً في جهودها لإبراز الشمول والتنوع. المشكلة الأساسية لا تزال قائمة وقال تشارلي بيرغوين، الرئيس التنفيذي لمختبر “فالكيري للعلوم التطبيقية” في تكساس، إن “غوغل” صححت أخطاءها بسرعة، لكن المشكلة الأساسية لا تزال قائمة. وشبه إصلاح “غوغل” لخطأ “جيميناي” بوضع ضمادة على جرح ناتج من تلقي رصاصة. وأشار ويفر إلى أنه في حين كانت “غوغل” تتمتع برفاهية الحصول على الوقت الكافي لتحسين منتجاتها، فإنها الآن تندفع في سباق الذكاء الاصطناعي مع “مايكروسوفت”، و”أوبن أي آي”، و”أنثروبيك” وغيرها، مضيفاً “أنهم يتحركون بسرعة تتخطى حدود معارفهم”. كما أن الأخطاء التي ارتكبت في إطار الجهود الرامية إلى مراعاة الحساسية الثقافية تشكل نقاطاً متفجرة، خصوصاً في ضوء الانقسامات السياسية المتوترة في الولايات المتحدة، وهو الوضع الذي تفاقم بسبب منصة “إكس” المملوكة للملياردير إيلون ماسك. وقال ويفر “لا يتوانى الناس على تويتر (إكس حالياً) عن الاحتفال بأي حدث محرج في مجال التكنولوجيا”، مضيفاً أن رد الفعل على الزلة التي حصلت عبر برنامج جيميناي كان “مبالغاً فيه”. ومع ذلك، أكد ويفر أن هذه الحادثة أثارت تساؤلات حول درجة تحكم أولئك الذين يستخدمون أدوات الذكاء الاصطناعي بالمعلومات. وأشار إلى أنه في العقد المقبل، يمكن أن تتجاوز كمية المعلومات – الصحيحة منها أو الخاطئة – التي يولدها الذكاء الاصطناعي تلك التي يولدها البشر، ما يعني أن أولئك الذين يتحكمون في ضمانات الذكاء الاصطناعي سيكون لهم تأثير كبير على العالم. قالت كارين بالمر، وهي صانعة محتوى بالواقع المختلط حائزة جوائز لدى شركة “إنترأكتيف فيلمز ليمتد” Interactive Films Ltd، إنها تتخيل مستقبلاً يركب فيه شخص ما سيارة أجرة آلية، و”إذا قام الذكاء الاصطناعي بمسح وجهك وأعتقد أن هناك أي انتهاكات عالقة ضدك سينقلك إلى مركز الشرطة المحلي”، وليس الوجهة المقصودة. يتم تدريب الذكاء الاصطناعي باستخدام كميات هائلة من البيانات ويمكن استخدامه في مجموعة متزايدة من المهام، بدءاً من إنشاء الصور أو الصوت وحتى تحديد ما إذا كان شخص ما مخولاً الحصول على قرض، أو ما إذا كان فحص طبي يكشف الإصابة بالسرطان. لكن هذه البيانات تأتي من عالم مليء بالتحيز الثقافي والمعلومات المضللة وعدم المساواة الاجتماعية، فضلاً عن محتويات عبر الإنترنت يمكن أن تتضمن محادثات غير رسمية بين أصدقاء أو مشاركات استفزازية ومبالغ فيها عن عمد، ويمكن لنماذج الذكاء الاصطناعي أن تكرر هذه العيوب. إعادة التوازن مع “جيميناي”، حاول مهندسو “غوغل” إعادة التوازن للخوارزميات لتقديم نتائج تعكس التنوع البشري بشكل أفضل، لكن جاءت هذه الجهود بنتائج عكسية. وقال محامي التكنولوجيا أليكس شهرستاني، وهو شريك إداري في شركة المحاماة “بروميس ليغال” المتعاونة مع شركات التكنولوجيا “قد يكون من الصعب حقاً معرفة موضع التحيز وكيف جرى تضمينه”. ويعتقد هو وآخرون أنه حتى المهندسين ذوي النوايا الحسنة المشاركين في تدريب الذكاء الاصطناعي لا يمكنهم إلا أن يجلبوا خبراتهم الحياتية وتحيزهم اللاواعي إلى العملية. كما انتقد بورغوين من مختبر “فالكيري” شركات التكنولوجيا الكبرى على إبقاء أعمالها الداخلية في مجال الذكاء الاصطناعي التوليدي مخفية في “صناديق سوداء”، بحيث لا يتمكن المستخدمون من اكتشاف أي انحيازات مخفية. وقال “لقد تجاوزت قدرات النواتج فهمنا للمنهجية بكثير”. ويدعو خبراء وناشطون إلى مزيد من التنوع في الفرق التي تنشئ الذكاء الاصطناعي والأدوات ذات الصلة، وزيادة الشفافية على صعيد كيفية عملها، خصوصاً عندما تعيد الخوارزميات كتابة طلبات المستخدمين “لتحسين” النتائج. المزيد عن: الذكاء الاصطناعيغوغلجيمينايشركات التكنولوجياالمعلومات المضللةالتحيز الثقافي 0 comment 0 FacebookTwitterPinterestEmail admin previous post 3 شخصيات بداخلنا تتحكم في تصرفاتنا وردود أفعالنا next post كيف خطط الأميركيون لإسقاط صدام من داخل العراق؟ You may also like هل تفوق الذكاء الاصطناعي على الأطباء في تشخيص... 26 ديسمبر، 2024 البشر والذكاء الاصطناعي شراكة لاختراق كل المجالات 21 ديسمبر، 2024 كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء... 19 ديسمبر، 2024 الذكاء الاصطناعي قد يكشف سمات شخصيتك من خلال... 19 ديسمبر، 2024 هل يعالج الذكاء الاصطناعي الشعور بالوحدة؟ 18 ديسمبر، 2024 كل ما تحتاج إلى معرفته عن ميزة «Image... 18 ديسمبر، 2024 توقعات «غوغل»: ما الذي ينتظر الذكاء الاصطناعي في... 18 ديسمبر، 2024 “الروبوت المجرم” يشكل “عصابة” بفضل الذكاء الاصطناعي 1 ديسمبر، 2024 الذكاء الاصطناعي ربما ينهي عقلية الإجهاد لدى المبدعين 1 ديسمبر، 2024 حوار فلسفي مع الذكاء الاصطناعي: كيف تفكّر الآلة... 25 نوفمبر، 2024