تعهدت الدول في قمة المملكة المتحدة بمعالجة المخاطر "الكارثية" المحتملة للذكاء الاصطناعي

وفي خطاب ألقته في السفارة الأمريكية، قالت هاريس إن العالم بحاجة إلى البدء في التحرك الآن لمعالجة "النطاق الكامل" لمخاطر الذكاء الاصطناعي، وليس فقط التهديدات الوجودية مثل الهجمات الإلكترونية الضخمة أو الأسلحة البيولوجية المصنعة بواسطة الذكاء الاصطناعي.

وأضافت: "هناك تهديدات إضافية تتطلب أيضًا اتخاذ إجراء من جانبنا، وهي تهديدات تسبب حاليًا ضررًا وتشعر العديد من الأشخاص أيضًا بأنها وجودية"، نقلاً عن مواطن كبير بدأ خطته للرعاية الصحية بسبب خوارزمية ذكاء اصطناعي خاطئة أو امرأة مهددة بتهديدات. شريك مسيء مع صور مزيفة عميقة.

تعتبر قمة سلامة الذكاء الاصطناعي بمثابة عمل محبب لسوناك، وهو مصرفي سابق محب للتكنولوجيا يريد أن تكون المملكة المتحدة مركزًا للابتكار في مجال الحوسبة، وقد وضع القمة في إطارها كبداية لمحادثة عالمية حول التطوير الآمن للذكاء الاصطناعي.

ومن المقرر أن تحضر هاريس القمة يوم الخميس، لتنضم إلى مسؤولين حكوميين من أكثر من عشرين دولة بما في ذلك كندا وفرنسا وألمانيا والهند واليابان والمملكة العربية السعودية – والصين، الذين تمت دعوتهم بسبب احتجاجات بعض أعضاء حزب المحافظين الحاكم بزعامة سوناك.

كان إقناع الدول بالتوقيع على الاتفاقية، التي أطلق عليها اسم إعلان بلتشلي، بمثابة إنجاز، حتى لو كانت خفيفة في التفاصيل ولا تقترح طريقة لتنظيم تطوير الذكاء الاصطناعي.وتعهدت الدول بالعمل نحو "اتفاق مشترك ومسؤولية مشتركة" بشأن مخاطر الذكاء الاصطناعي، وعقد سلسلة من الاجتماعات الإضافية.ستعقد كوريا الجنوبية قمة افتراضية مصغرة للذكاء الاصطناعي في غضون ستة أشهر، تليها قمة شخصية في فرنسا بعد عام من الآن.

وقال نائب وزير العلوم والتكنولوجيا الصيني، وو تشاو هوي، إن تكنولوجيا الذكاء الاصطناعي "غير مؤكدة وغير قابلة للتفسير وتفتقر إلى الشفافية".

"إنه يجلب مخاطر وتحديات في الأخلاق والسلامة والخصوصية والعدالة.وقال إن تعقيداته بدأت تظهر، مشيراً إلى أن الرئيس الصيني شي جين بينغ أطلق الشهر الماضي المبادرة العالمية لحوكمة الذكاء الاصطناعي في البلاد.

وقال: "إننا ندعو إلى التعاون العالمي لتبادل المعرفة وإتاحة تقنيات الذكاء الاصطناعي للجمهور بموجب شروط مفتوحة المصدر".

ومن المقرر أيضًا أن يناقش الرئيس التنفيذي لشركة Tesla Elon Musk الذكاء الاصطناعي مع Sunak في محادثة سيتم بثها مساء الخميس.وكان ملياردير التكنولوجيا من بين أولئك الذين وقعوا على بيان في وقت سابق من هذا العام دق ناقوس الخطر بشأن المخاطر التي يشكلها الذكاء الاصطناعي على البشرية.

وتحضر أيضًا رئيسة المفوضية الأوروبية أورسولا فون دير لاين، والأمين العام للأمم المتحدة أنطونيو غوتيريش، ومديرون تنفيذيون من شركات الذكاء الاصطناعي الأمريكية مثل Anthropic، وDeepMind من Google، وOpenAI، وعلماء الكمبيوتر المؤثرين مثل يوشوا بنجيو، أحد "العرابين" للذكاء الاصطناعي. الاجتماع في بليتشلي بارك، وهي قاعدة سرية للغاية سابقة لفك الشفرات في الحرب العالمية الثانية والتي يُنظر إليها على أنها مهد الحوسبة الحديثة.

وقال الحاضرون إن شكل الاجتماع المغلق ساهم في تعزيز النقاش الصحي.وقال مصطفى سليمان، الرئيس التنفيذي لشركة Inflection AI، إن جلسات التواصل غير الرسمية تساعد على بناء الثقة.

وفي الوقت نفسه، في المناقشات الرسمية "تمكن الناس من الإدلاء ببيانات واضحة للغاية، وهنا ترى خلافات كبيرة، سواء بين دول الشمال والجنوب (و) الدول التي تؤيد المصادر المفتوحة أكثر والأقل تفضيلاً للمصادر المفتوحة". وقال سليمان للصحفيين.

تتيح أنظمة الذكاء الاصطناعي مفتوحة المصدر للباحثين والخبراء اكتشاف المشكلات بسرعة ومعالجتها.لكن الجانب السلبي هو أنه بمجرد إطلاق نظام مفتوح المصدر، "يمكن لأي شخص استخدامه وضبطه لأغراض ضارة"، حسبما قال بينجيو على هامش الاجتماع.

"هناك عدم توافق بين المصادر المفتوحة والأمن.فكيف نتعامل مع ذلك؟

وقال سوناك الأسبوع الماضي إن الحكومات، وليس الشركات، هي وحدها القادرة على حماية الناس من مخاطر الذكاء الاصطناعي.ومع ذلك، حث أيضًا على عدم التسرع في تنظيم تكنولوجيا الذكاء الاصطناعي، قائلاً إنه يجب فهمها بالكامل أولاً.

في المقابل، شددت هاريس على ضرورة معالجة الحاضر، بما في ذلك “الأضرار المجتمعية التي تحدث بالفعل مثل التحيز والتمييز وانتشار المعلومات المضللة”.

وأشارت إلى الأمر التنفيذي الذي أصدره الرئيس جو بايدن هذا الأسبوع، والذي يحدد ضمانات الذكاء الاصطناعي، كدليل على أن الولايات المتحدة تقود بالقدوة في تطوير قواعد الذكاء الاصطناعي التي تعمل من أجل المصلحة العامة.

كما شجعت هاريس الدول الأخرى على التوقيع على تعهد تدعمه الولايات المتحدة بالالتزام بالاستخدام "المسؤول والأخلاقي" للذكاء الاصطناعي لأغراض عسكرية.

وقالت: "الرئيس بايدن وأنا نعتقد أن جميع القادة... لديهم واجب أخلاقي وأخلاقي واجتماعي للتأكد من اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي الجمهور من الأذى المحتمل وتضمن قدرة الجميع على الاستمتاع بفوائده". قال.


وقت النشر: 21 نوفمبر 2023