إيلون ماسك يستمع إلى ريشي سوناك في قمة سلامة الذكاء الاصطناعي التي استضافتها المملكة المتحدة الأسبوع الماضي (غيتي) بأقلامهم شون أوغرايدي يكتب عن: إن كان الذكاء الاصطناعي بهذه الخطورة فلما هذا التقصير في تقنينه؟ by admin 11 نوفمبر، 2023 written by admin 11 نوفمبر، 2023 70 من التسجيل الصوتي المزيف لكير ستارمر وهو يشتم أحد مساعديه إلى علامات الاستفهام حول نتائج الانتخابات الأخيرة في سلوفاكيا، تكشر هذه التكنولوجيا عن أنيابها بالفعل في الساحة السياسية. أين هي القوانين إذاً لحماية الديمقراطية؟ اندبندنت عربية / شون أوغرايدي مساعد رئيس التحرير @_SeanOGrady في قمة سلامة الذكاء الاصطناعي التي استضافتها المملكة المتحدة الأسبوع الماضي، حذر إيلون ماسك، وهو العالم بهذه الأمور، من الذكاء الاصطناعي بوصفه “القوة الأكبر تدميراً في التاريخ”. في حين أن التأثير المجمل للذكاء الاصطناعي الذي يتجاوز بكثير الذكاء البشري، قد يكون مفيداً للغاية للبشرية وقد يلغي الحاجة إلى العمل إلا أنه يحمل أيضاً أخطاراً وتحديات كبيرة قد تشبه تحقيق “مارد المصباح” للأمنيات من دون النظر في العواقب. ومن المؤكد أن إحدى هذه المشكلات تتمثل في الأثر الذي يمكن أن يحدثه الذكاء الاصطناعي في الانتخابات الحرة في المجتمعات الديمقراطية (بل وفي شبه الديمقراطيات أيضاً). ماسك نفسه أقر بأن مقاطع الفيديو التي تستخدم تكنولوجيا الذكاء الاصطناعي “ديب فايك” deepfake يمكن أن تكون خادعة للغاية و”أكثر إقناعاً من مقاطع الفيديو الحقيقية”. لكن حتى الآن، في فجر تدخل الذكاء الاصطناعي في العملية السياسية، من المثير للدهشة أن تنظيم مثل هذه الظواهر هو في حدوده الدنيا من قبل جهات مثل “اللجنة الانتخابية” [هيئة مستقلة مسؤولة عن مراقبة وتنظيم العمليات الانتخابية في المملكة المتحدة] أو معهد سلامة الذكاء الاصطناعي المقترح من قبل ريشي سوناك. العام المقبل، من المقرر أن تجري انتخابات عامة في كل من المملكة المتحدة والهند والاتحاد الأوروبي والولايات المتحدة، ومن المتوقع أن نشهد كميات غير مسبوقة من التزييف المستوحى من الذكاء الاصطناعي الذي يتغذى على ثقافة المؤامرة والناخبين الحزبيين المتطرفين المستعدين لتصديق أقل الخدع احتمالاً عن أعدائهم. وسيكون التدخل الروسي في الانتخابات أسهل بكثير. يشير ماسك إلى أن قدرة الذكاء الاصطناعي تنمو كل عام وأن الحكومات ليست معتادة على التحرك بهذه السرعة. وهو محق في ذلك… ما الأمر المختلف في الذكاء الاصطناعي؟ من نافل القول إن تاريخ البشرية مليء بالدعاية والخدع والتزوير والغش. وتلك أمور تطبق على مختلف الجوانب من عالم الفن إلى الاحتيال الإجرامي إلى المؤامرات السياسية. حتى ويليام شكسبير شارك في أعمال تحريف للتاريخ لمصلحة أجندات من كانوا في السلطة من آل تيودور. وليست رسالة زينوفييف و”بروتوكولات حكماء صهيون” وأكاذيب دونالد ترمب حول انتخابات مسروقة سوى بضعة من أكثر الأمثلة شهرة على أنشطة كهذه. ما هو مختلف بصورة ملحوظة اليوم هو قدرة الذكاء الاصطناعي على خلق خدع مقنعة للغاية مثل مقاطع الفيديو المزيفة المستخدمة بتقنية “ديب فايك” والمستندات المزيفة واللقطات الإخبارية المزورة وما شابه ذلك. وعندما يمكن نشر ذلك عالمياً في غضون ثوانٍ عبر وسائل التواصل الاجتماعي، ونشره عن طريق الخطأ من قبل وسائل الإعلام السائدة، سرعان ما تضيع الحقيقة وسط الانتشار الكثيف لنظريات المؤامرة. يقول المثل القديم، يمكن أن تسافر الكذبة نصف العالم قبل أن يتاح للحقيقة ارتداء حذائها. هل استخدم الذكاء الاصطناعي في عمليات التزييف في المملكة المتحدة؟ نعم. مثلاً، قبل بدء مؤتمر حزب العمال مباشرة، ظهر على “إكس” (“تويتر” سابقاً) تسجيل صوتي لكير ستارمر وهو يشتم أحد مساعديه وبدأت مشاركته على نطاق واسع. حمل التسجيل إحساساً بالأصالة، كما لو أنه ملتقط خلسة على هاتف ذكي في منطقة مخصصة لشرب القهوة في المؤتمر، مع صخب من الثرثرة في خلفيته. ومع ذلك، أثارت بعض الأجزاء المتكررة بصورة غريبة الشكوك حول صحتها، وكانت هناك شكوك حول ما إذا كانت تتوافق مع أسلوب ستارمر المعتاد. والأكثر دلالة هو أن من نشره للمرة الأولى بدا مستخدماً مجهولاً لـ”تويتر” [إكس] يحمل خصائص الروبوتات أو الحسابات التي تعتمد على الذكاء الاصطناعي. وسرعان ما كشف عن زيفه، لكن ليس قبل أن يصرف الانتباه عن الأخبار الحقيقية ويلحق أضراراً طفيفة بسمعة ستارمر (على رغم أن بعضهم أحب ما ورد في هذا التسجيل مشاركين ما ورد فيه من نفاد صبر ستارمر تجاه عدم الكفاءة). ودانت الحكومة “الشريط” ووصفته بأنه مزيف وما لبث أن أزيل. بالنسبة إلى المجال السياسي البريطاني، كان الأمر طلقة تحذير: ربما ساعد الذكاء الاصطناعي في جعل الشريط يبدو واقعياً. هل أثّر الذكاء الاصطناعي في الانتخابات؟ عانت الانتخابات الأخيرة في سلوفاكيا خدعة صوتية مشابهة للغاية – ربما لأن لقطات الفيديو تحتاج إلى مزامنة الصور المتحركة لحركات الفم والإيماءات مع الصوت وهذه لا تزال مهمة صعبة. ونُشر التسجيل الصوتي المزيف على “فيسبوك”. وأظهر صوتين: أحدهما كان لميشال سيميكا الذي يقود حزب “سلوفاكيا التقدمية” الليبرالي، وزعم أن الآخر كان صوت مونيكا تودوفا من الصحيفة اليومية “دينيك إن”. وبدا أنهما كانا يناقشان كيفية تزوير الانتخابات في جزء منها عن طريق شراء الأصوات من أقلية الغجر المهمشة في البلاد. الجانب العنصري لعملية الاحتيال جعلها أكثر فاعلية وأكثر إثارة للاشمئزاز. تمثلت الحيلة الأخرى في أن التسجيل الصوتي أصدر خلال تجميد أنشطة الحملات الانتخابية لمدة 48 ساعة قبل يوم الاقتراع مباشرة – لذلك كان دحض التسجيل الصوتي أكثر صعوبة. كذلك جرى استغلال ثغرة في قواعد “ميتا”/ “فيسبوك” التي تحظر مقاطع فيديو “ديب فايك” فقط، وليس الملفات الصوتية. في منافسة محتدمة، هل أحدث الأمر فرقاً؟ لا يمكننا أن نعرف، لكن حزب سيميكا المؤيد لحلف شمال الأطلسي، “سلوفاكيا التقدمية”، خسر أمام حزب الديمقراطية الاجتماعية الموالي لروسيا الذي نفذ حملة لسحب الدعم العسكري المخصص لجارتها، أوكرانيا. مصادفة؟ دعونا لا نستند إلى نظريات المؤامرة… ماذا عن الولايات المتحدة؟ من المؤسف أن هذه الظاهرة بدأت بالفعل بالظهور، على رغم أنها تميل في كثير من الأحيان نحو السخرية. على سبيل المثال، من الصعب أن نأخذ الأمر على محمل الجد عندما نرى هيلاري كلينتون تقول بصوت مرتعش: “أنا في الواقع أحب رون دي سانتيس كثيراً… إنه ذلك النوع من الرجال الذين تحتاج إليه البلاد، وأنا أعني ذلك حقاً”. وبالمثل، من غير المرجح أن ينخدع كثيرون عندما يقول جو بايدن، بلهجة صارمة، لامرأة متحولة جنسياً: “لن تكوني امرأة حقيقية أبداً”. ومع ذلك، يمكن أحياناً تضليل الناس بسهولة. وفق “ديب ميديا” DeepMedia، وهي شركة تعمل على إنتاج أدوات تكشف عن “وسائط الإعلام المعالجة باستخدام الذكاء الاصطناعي”، شهد هذا العام حتى الآن ثلاثة أضعاف عدد الفيديوهات المزيفة وثمانية أضعاف عدد التسجيلات الصوتية المزيفة عبر الإنترنت مقارنة بالفترة الزمنية نفسها لعام 2022. ولا يمكن للأمر إلا أن يزيد سوءاً. ما الذي يمكن أن يحصل؟ ستُسرق الانتخابات، لمصلحة روسيا وغيرها من الكيانات الوكيلة – الدول أو الإرهاب أو العصابات الإجرامية التي تتحين فرصة لتزوير الانتخابات للحصول على شكل من أشكال المزايا. ومن شأن فضائح كهذه، إذا كشف عنها، أن تزيد من تدهور الثقة بالمؤسسات الديمقراطية، وتفتح الطريق أمام مزيد من الفوضى. ما الذي يمكن فعله للحماية من إساءة استخدام الذكاء الاصطناعي؟ يمكن لعمالقة التكنولوجيا وشركات الذكاء الاصطناعي في الأقل الاعتراف بالمشكلة، كما يفعل ماسك، وحظر استخدام برمجياتها للتلاعب بصور وخطابات السياسيين وكذلك الأحزاب. ويمكن للحكومات فرض غرامات كبيرة على هذه الأنشطة، تعززها المعاهدات الدولية والعمل الجماعي. ويمكن تعليم الجمهور كيفية اكتشاف الاحتيال. قد يلجأ الناس في جو كهذا في صورة متزايدة إلى مصادر موثوقة راسخة للأخبار والتحليلات المنسقة (على رغم أن عوامل الجذب الضارة لوسائل الإعلام “البديلة” وثقافة “السخرية الساذجة” تبدو عقبات قوية أمام مناقشة أكثر عقلانية). يمكن استخدام الذكاء الاصطناعي لاكتشاف الأخبار المزيفة ومقاطع الفيديو المزيفة وتصفيتها. لكن على غرار الجرائم كلها، سيكون الاحتيال السياسي بمثابة لعبة لا تنتهي من ألعاب القط والفأر بين الجهات التنظيمية والأطراف الفاعلة ذات النوايا السيئة، وسيعمل الذكاء الاصطناعي قريباً على التعجيل بالأمور إلى حد كبير. بعد نجاح قمة الذكاء الاصطناعي، سيكون من الجيد التفكير في أن سوناك سيعلن عن خطط لضرب مثال عالمي وتشديد قوانين الانتخابات في الخطاب الذي يلقيه الملك. سنرى. © The Independent المزيد عن: التحكم بالذكاء الاصطناعيالذكاء الاصطناعيريشي سوناكإيلون ماسكتقنية ديب فايككير ستارمرالانتخاباتالأنظمة الديمقراطيةإعلان بلتشليالتزييف 0 comment 0 FacebookTwitterPinterestEmail admin previous post صورة شاغال في حياته الخاصة وممارساته القاسية next post أداة ترجمة فورية في “سامسونغ غالاكسي” المقبل You may also like فرانسيس توسا يكتب عن: “قبة حديدية” وجنود في... 24 نوفمبر، 2024 رضوان السيد يكتب عن: وقف النار في الجنوب... 24 نوفمبر، 2024 مايكل آيزنشتات يكتب عن: مع تراجع قدرتها على... 21 نوفمبر، 2024 ما يكشفه مجلس بلدية نينوى عن الصراع الإيراني... 21 نوفمبر، 2024 غسان شربل يكتب عن: عودة هوكستين… وعودة الدولة 19 نوفمبر، 2024 حازم صاغية يكتب عن: حين ينهار كلّ شيء... 19 نوفمبر، 2024 رضوان السيد يكتب عن: ماذا جرى في «المدينة... 15 نوفمبر، 2024 عبد الرحمن الراشد يكتب عن: ترمب ومشروع تغيير... 15 نوفمبر، 2024 منير الربيع يكتب عن..لبنان: معركة الـ1701 أم حرب... 15 نوفمبر، 2024 حميد رضا عزيزي يكتب عن: هل يتماشى شرق... 15 نوفمبر، 2024