انطلقت يوم الأربعاء الأول من نوفمبر القمة العالمية الأولى حول (سلامة الذكاء الاصطناعي) AI Safety Summit، التي تستضيفها المملكة المتحدة، وتستمر القمة حتى يوم الخميس الثاني من نوفمبر، حيث يجتمع قادة سياسيون ومسؤولون تنفيذيون في كبرى شركات التكنولوجيا وخبراء في الذكاء الاصطناعي لدراسة المخاطر المترتبة عن التطور السريع لهذه التقنية الثورية.
وقد اختارت حكومة المملكة المتحدة مكان عقد هذه القمة في (بلتشلي بارك) شمال غرب لندن، وهو مركز ذو رمزية كبيرة؛ إذ شهد تطوير أول نظام حاسوبي، وجرى فيه فك الشفرات العسكرية الألمانية خلال الحرب العالمية الثانية.
وتهدف القمة إلى تحقيق فهم مشترك للمخاطر المرتبطة بالذكاء الاصطناعي، وإرساء أسس التعاون الدولي المتقدمة لضمان سلامته، إضافة إلى تحديد التدابير التي يجب أن تتخذها المنظمات الفردية لزيادة سلامة استخدام الذكاء الاصطناعي، فضلًا عن التركيز على التعاون في مجال أبحاث سلامة الذكاء الاصطناعي، مثل: تقييم النماذج اللغوية وتطوير معايير جديدة، واستعراض كيفية ضمان التطوير الآمن له، وذلك بهدف تحقيق أقصى الفوائد على مستوى العالم.
وقد ألقت (ميشيل دونيلان) وزيرة الدولة البريطانية للعلوم والابتكار والتكنولوجيا خلال اليوم الأول كلمة أكدت فيها أن المخاطر التي يفرضها الذكاء الاصطناعي خطيرة وجوهرية، ومن الأهمية أن نعمل معًا، عبر القطاعات والبلدان على حد سواء، لتعرّف هذه المخاطر، مشيرةً إلى أن القمة تشكل فرصة للتأكد من أن لدينا الأشخاص المناسبين ذوي الخبرة المناسبة الذين يجتمعون حول الطاولة لمناقشة كيفية التخفيف من هذه المخاطر للمضي قدمًا.
ولفتت الوزيرة دونيلان النظر إلى أن الذكاء الاصطناعي يعد قوة غير عادية من أجل الخير في مجتمعنا، مع فرص لا حدود لها لتنمية الاقتصاد العالمي، وتقديم خدمات عامة أفضل.
الذكاء الاصطناعي والعالم العربي:
تُعد كل من السعودية والإمارات اللاعبين الرئيسيين في سوق الذكاء الاصطناعي في المنطقة العربية، لذلك تشارك كل من الدولتين في قمة سلامة الذكاء الاصطناعي.
إذا يحضر القمة حاليًا معالي عمر سلطان العلماء؛ وزير دولة الإمارات للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بُعد، ومعالي الدكتور عبدالله بن شرف الغامدي؛ رئيس الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا).
ماسك: قمة سلامة الذكاء الاصطناعي تهدف إلى تأسيس إطار تنظيمي لهذه التقنية
قال الملياردير الأمريكي (إيلون ماسك) الذي يحضر القمة أيضًا: “إن ما نهدف إليه حقا هنا هو إنشاء إطار عمل إشرافي بحيث يكون هناك على الأقل حكم يمثل طرفًا ثالثًا، يكون حكمًا مستقلًا، يمكنه مراقبة ما تفعله شركات الذكاء الاصطناعي الرائدة، وعلى الأقل دق ناقوس الخطر إذا كانت هناك مخاوف”.
وأضاف ماسك أنه لا يعرف ما هي القواعد العادلة بالضرورة، لكن يجب البدء في فهم طبيعة الأمور قبل أن تقوم بالإشراف والرقابة.
وجاءت تعليقات ماسك بعد أن نشرت بريطانيا إعلانًا وقعته 28 دولة والاتحاد الأوروبي، الذي حدد جدول أعمال من شقين يركز على تحديد مخاطر الذكاء الاصطناعي وفهمهما على أساس علمي وبناء سياسات بالتنسيق بين الدول للتخفيف منها.
وقال: “أعتقد أن هناك قلقًا كبيرًا بين العاملين في مجال الذكاء الاصطناعي من أن تتسرع الحكومات في وضع القواعد قبل أن تعرف ما يجب فعله”.
الصين والولايات المتحدة والاتحاد الأوروبي يتفقون على العمل معًا:
اتفقت الصين على العمل مع الولايات المتحدة والاتحاد الأوروبي ودول أخرى لإدارة المخاطر الناجمة عن الذكاء الاصطناعي بشكل جماعي خلال اليوم الأول من قمة سلامة الذكاء الاصطناعي.
إذ وقّعت الصين والولايات المتحدة والاتحاد الأوروبي ونحو 28 دولة في بريطانيا يوم الأربعاء، إعلان بليتشلي من أجل تطوير آمن للذكاء الاصطناعي.
وقد وضع الإعلان أجندة ذات شقين تركز على تحديد المخاطر ذات الاهتمام المشترك وبناء الفهم العلمي لها، في حين تعمل أيضا على تطوير سياسات مشتركة بين البلدان للتخفيف من هذه المخاطر.
وقال وو تشاو هوي، نائب وزير العلوم والتكنولوجيا الصيني، في الجلسة الافتتاحية للقمة: “إن بكين مستعدة لزيادة التعاون في مجال سلامة الذكاء الاصطناعي للمساعدة في بناء “إطار حوكمة” دولي”.
ورحب رئيس الوزراء البريطاني ريشي سوناك، عبر منصة إكس (تويتر سابقًا) بإعلان بليتشلي قائلاً: “إن هذا الإعلان التاريخي يمثل بداية جهد عالمي جديد لبناء ثقة الجمهور في الذكاء الاصطناعي من خلال ضمان سلامته”.
وسيجري إيلون ماسك يوم الخميس أيضًا محادثات مع رئيس الوزراء البريطاني ريشي سوناك بعد القمة، كما أعلن الأخير في تغريدة له عبر منصة إكس، وسيكون اللقاء عبر إكس أيضًا.
قمتان للذكاء الاصطناعي:
وفي مواجهة الإمكانات المتزايدة لبرمجيات مثل: ChatGPT، فإن إعلان بليتشلي يُظهر أنه للمرة الأولى، يجتمع العالم لتحديد المشكلة وإبراز الفرص المتصلة بها، وفق ما أكدته وزيرة التكنولوجيا البريطانية ميشال دونيلان لوكالة فرانس برس.
وأوضحت الوزيرة البريطانية أن هذه القمة لا تهدف إلى وضع الأسس للتشريعات العالمية، بل يجب أن تعمل على رسم طريق للمضي قدمًا في هذا المجال.
وأضافت من هذا الموقع ذي الرمزية الكبيرة، الذي كان يضم مركز فك الشفرات في الحرب العالمية الثانية، أن هذه القمة ستُستتبع بقمتين دوليتين حول الذكاء الاصطناعي، الأولى في كوريا الجنوبية في غضون ستة أشهر، ثم الثانية في فرنسا في غضون عام.
إنشاء معهد لأمن الذكاء الاصطناعي:
دعت كامالا هاريس؛ نائبة الرئيس الأمريكي يوم الأربعاء إلى اتخاذ إجراءات عاجلة لحماية الجمهور والديمقراطية من المخاطر التي يشكلها الذكاء الاصطناعي، معلنة عن سلسلة من المبادرات لمعالجة المخاوف المتعلقة بمخاطر هذه التكنولوجيا الثورية.
وفي خطاب ألقته في سفارة الولايات المتحدة في لندن، تحدثت هاريس عن المخاطر التي يمكن أن يشكلها الذكاء الاصطناعي على الأفراد والنظام السياسي الغربي.
وأضافت أن هذه التكنولوجيا لديها القدرة على خلق “هجمات إلكترونية على نطاق يتجاوز أي شيء رأيناه من قبل” أو “أسلحة بيولوجية مصاغة بواسطة الذكاء الاصطناعي يمكن أن تعرض حياة الملايين للخطر”.
وأضاف هاريس: “غالبًا ما يشار إلى هذه التهديدات باسم”التهديدات الوجودية للذكاء الاصطناعي”، لأنها يمكن أن تعرض وجود البشرية ذاته للخطر”.
وأثار توقيت ومكان خطاب هاريس الدهشة بين بعض أعضاء حزب المحافظين الحاكم في المملكة المتحدة، الذين أشاروا إلى أن واشنطن تحاول أن تلقي بظلالها على القمة، وهو اتهام نفاه المسؤولون البريطانيون، قائلين إنهم يريدون أكبر عدد ممكن من الأصوات. ومن المقرر أن تحضر هاريس اليوم الثاني للقمة يوم الخميس.
هذا وقد أعلنت جينا ريموندو، وزيرة التجارة الأمريكية، يوم الأربعاء إنشاء معهد جديد لسلامة الذكاء الاصطناعي سيكون مقره داخل وزارة التجارة وعلى وجه التحديد تحت إشراف المعهد الوطني للمعايير والتكنولوجيا (NIST) التابع للوزارة.
وقالت: “إن الهدف هو أن تعمل هذه المنظمة بشكل وثيق مع مجموعات سلامة الذكاء الاصطناعي الأخرى التي أنشأتها حكومات أخرى، مثل معهد السلامة الذي تخطط المملكة المتحدة أيضًا لإنشائه”.
وقد حقق الذكاء الاصطناعي التوليدي، القادر على إنتاج نصوص أو أصوات أو صور بناءً على طلب بسيط في غضون ثوانٍ، تقدمًا مبهرًا في الفترة الأخيرة، ويُتوقع أن تظهر الأجيال الجديدة من هذه النماذج في الأشهر المقبلة.
وحذرت الحكومة البريطانية في تقرير نُشر يوم الأربعاء من أن هذه التكنولوجيا التي تثير آمالًا كبيرة في الطب أو التعليم، قد تشكل أيضًا تهديدًا وجوديًا من خلال زعزعة استقرار مجتمعات، عبر إتاحتها تصنيع أسلحة أو الإفلات من السيطرة البشرية.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.