حساب جديد

بلغ

دليل لصانعي السياسات: تقييم التقنيات سريعة التطور بما في ذلك الذكاء الاصطناعي ونماذج اللغات الكبيرة وما بعدها

في هذه الورقة، يستكشف مركز الدراسات الدولي الخطوط العريضة لإطار لإبلاغ صناع السياسات بالمناقشات العالمية والوطنية المتعددة الجارية فيما يتعلق بالذكاء الاصطناعي.

يقدم دليل مركز الدراسات الدولي إطارًا شاملاً مصممًا لسد الفجوة بين المبادئ رفيعة المستوى والسياسة العملية والقابلة للتنفيذ. فهو يستجيب للحاجة الملحة إلى فهم مشترك لكل من الفرص والمخاطر التي تمثلها التكنولوجيات الناشئة. هذه وثيقة أساسية للعاملين في مجال السياسات في عصرنا الرقمي سريع التغير.

يستكشف الإطار إمكانات الذكاء الاصطناعي ومشتقاته من خلال عدسة شاملة تشمل رفاهية الإنسان والمجتمع إلى جانب العوامل الخارجية مثل الاقتصاد والسياسة والبيئة والأمن. قد تكون بعض جوانب القائمة المرجعية أكثر أهمية من غيرها، اعتمادًا على السياق، ولكن من المرجح أن يتم اتخاذ قرارات أفضل إذا تم أخذ جميع المجالات في الاعتبار، حتى لو كان من الممكن تحديد بعضها بسرعة على أنها غير ذات صلة في حالات معينة. هذه هي القيمة المتأصلة لنهج القائمة المرجعية.

"في عصر يتسم بالابتكار التكنولوجي السريع والتحديات العالمية المعقدة، فإن إطار مركز الدراسات الدولي للتحليل الشامل والمتعدد الأبعاد للتأثيرات المحتملة يمكّن القادة من اتخاذ قرارات مستنيرة ومسؤولة. فهو يضمن أننا مع تقدمنا ​​التكنولوجي، نفعل ذلك مع دراسة متأنية للآثار الأخلاقية والاجتماعية والاقتصادية.

بيتر جلوكمان ، رئيس مركز الدراسات الدولي

في حين تم إصدار مبادئ رفيعة المستوى من قبل اليونسكو ومنظمة التعاون والتنمية في الميدان الاقتصادي والمفوضية الأوروبية والأمم المتحدة، من بين آخرين، وما زالت المناقشات المختلفة مستمرة بشأن قضايا الحوكمة والتنظيم والأخلاق والسلامة المحتملة، إلا أن هناك فجوة كبيرة بين هذه المبادئ وبين الإطار الإداري أو التنظيمي. وتعالج لجنة الدراسات الدولية هذه الحاجة من خلال دليلها الجديد لصانعي السياسات.

لا يهدف هذا الدليل الموجه لصانعي السياسات إلى حظر وجود نظام تنظيمي، بل إلى اقتراح إطار تحليلي متكيف ومتطور يمكن أن يدعم أي تقييم وعمليات تنظيمية قد يطورها أصحاب المصلحة، بما في ذلك الحكومات والنظام المتعدد الأطراف.

"يعد الإطار خطوة حاسمة في المحادثة العالمية حول الذكاء الاصطناعي لأنه يوفر أساسًا يمكننا من خلاله بناء توافق في الآراء حول آثار التكنولوجيا في الحاضر والمستقبل". 

هيما سريدهار، كبيرة المستشارين العلميين السابقة، وزارة الدفاع، نيوزيلندا، والآن زميلة أبحاث أولى، جامعة أوكلاند، نيوزيلندا.

منذ أكتوبر 2023، كانت هناك العديد من المبادرات الوطنية والمتعددة الأطراف المهمة مع مزيد من النظر في أخلاقيات الذكاء الاصطناعي وسلامته. إن آثار الذكاء الاصطناعي على سلامة بعض أنظمتنا الحيوية، بما في ذلك الأنظمة المالية والحكومية والقانونية والتعليمية، بالإضافة إلى أنظمة المعرفة المختلفة (بما في ذلك المعرفة العلمية والمحلية)، تثير قلقًا متزايدًا. ويعكس الإطار هذه الجوانب كذلك.

وتنعكس التعليقات التي وردت من أعضاء اللجنة الدائمة والمجتمع الدولي لصانعي السياسات حتى الآن في النسخة المنقحة من الإطار التحليلي، الذي صدر الآن كدليل لصانعي السياسات.

دليل لصانعي السياسات: تقييم التقنيات سريعة التطور بما في ذلك الذكاء الاصطناعي ونماذج اللغات الكبيرة وما بعدها

توفر ورقة المناقشة هذه الخطوط العريضة لإطار أولي لإثراء المناقشات العالمية والوطنية المتعددة الجارية فيما يتعلق بالذكاء الاصطناعي.

قم بتنزيل الإطار لاستخدامه في مؤسستك

نقدم هنا أداة إطار العمل كورقة Excel قابلة للتحرير لاستخدامها في مؤسستك. إذا كنت تفضل تنسيقًا مفتوح المصدر، فيرجى الاتصال بأمانة@council.science.

المُقدّمة

تمثل التقنيات الناشئة بسرعة قضايا صعبة عندما يتعلق الأمر باستخدامها وإدارتها وتنظيمها المحتمل. وقد أدت السياسات الجارية والمناقشات العامة حول الذكاء الاصطناعي واستخدامه إلى تسليط الضوء على هذه القضايا بشكل حاد. لقد تم الإعلان عن مبادئ واسعة للذكاء الاصطناعي من قبل اليونسكو ومنظمة التعاون الاقتصادي والتنمية والأمم المتحدة وغيرها، بما في ذلك إعلان بلتشلي في المملكة المتحدة، وهناك محاولات قضائية ناشئة لتنظيم جوانب التكنولوجيا من خلال الذكاء الاصطناعي في الاتحاد الأوروبي، على سبيل المثال. القانون أو الأمر التنفيذي الأخير لمنظمة العفو الدولية في الولايات المتحدة.

في حين تتم مناقشة استخدام الذكاء الاصطناعي باستفاضة في هذه المنتديات وغيرها، عبر الانقسامات الجيوسياسية وفي البلدان على جميع مستويات الدخل، لا تزال هناك فجوة وجودية بين تطوير مبادئ عالية المستوى ودمجها في الممارسة من خلال التنظيم أو السياسة أو الحوكمة. أو أساليب الإشراف. إن المسار من المبدأ إلى الممارسة غير محدد بشكل جيد، ولكن نظرا لطبيعة ووتيرة تطوير الذكاء الاصطناعي وتطبيقه، وتنوع الاهتمامات المعنية ومجموعة التطبيقات المحتملة، فإن أي نهج لا يمكن أن يكون عاما أو توجيهيا بشكل مفرط.

ولهذه الأسباب، يواصل المجتمع العلمي غير الحكومي لعب دور خاص. أصدر المجلس الدولي للعلوم (ISC) - بعضويته التعددية من العلوم الاجتماعية والطبيعية - ورقة مناقشة في أكتوبر 2023 تقدم إطارًا تحليليًا أوليًا يأخذ في الاعتبار المخاطر والفوائد والتهديدات والفرص المرتبطة بالتكنولوجيا الرقمية سريعة الحركة. على الرغم من أنه تم تطويره ليأخذ بعين الاعتبار الذكاء الاصطناعي، إلا أنه بطبيعته لا يعتمد على التكنولوجيا ويمكن تطبيقه على مجموعة من التقنيات الناشئة والمدمرة، مثل البيولوجيا التركيبية والكم. وقد دعت ورقة المناقشة هذه إلى تلقي تعليقات من الأكاديميين وصانعي السياسات. جعلت ردود الفعل الساحقة إجراء مثل هذا التحليل ضروريًا وشكل نهجًا قيمًا لمعالجة التقنيات الناشئة مثل الذكاء الاصطناعي.

والغرض من هذا الإطار هو توفير أداة لإبلاغ جميع أصحاب المصلحة - بما في ذلك الحكومات والمفاوضون التجاريون والهيئات التنظيمية والمجتمع المدني والصناعة - بتطور هذه التكنولوجيات لمساعدتهم على تحديد كيفية النظر في الآثار الإيجابية أو السلبية المترتبة على هذه التكنولوجيات. التكنولوجيا نفسها، وبشكل أكثر تحديدًا تطبيقها الخاص. وقد تم تطوير هذا الإطار التحليلي بشكل مستقل عن المصالح الحكومية والصناعية. إنها تعددية إلى أقصى حد في وجهات نظرها، حيث تشمل جميع جوانب التكنولوجيا وآثارها بناءً على مشاورات وملاحظات واسعة النطاق.

ولا تهدف ورقة المناقشة هذه الموجهة لصانعي السياسات إلى حظر وجود نظام تنظيمي، بل إلى اقتراح إطار تحليلي متكيف ومتطور يمكن أن يدعم أي تقييم وعمليات تنظيمية قد يطورها أصحاب المصلحة، بما في ذلك الحكومات والنظام المتعدد الأطراف.

وبينما يدرس صناع القرار على المستويين العالمي والوطني إعدادات السياسات والأدوات المناسبة لتحقيق التوازن بين مخاطر ومكافآت التكنولوجيا الجديدة مثل الذكاء الاصطناعي، فإن الهدف من الإطار التحليلي هو أن يكون أداة تكميلية لضمان عكس المجموعة الكاملة من الآثار المحتملة بشكل مناسب.

الخلفية: لماذا الإطار التحليلي؟

إن الظهور السريع للتكنولوجيات ذات التعقيد والآثار المترتبة على الذكاء الاصطناعي يدفع العديد من المطالبات ذات الفائدة الكبيرة. ومع ذلك، فإنه يثير أيضًا مخاوف من مخاطر كبيرة، من المستوى الفردي إلى المستوى الجيوستراتيجي.1 لقد تم النظر في الكثير من المناقشات حتى الآن بالمعنى الثنائي حيث أن الآراء المعبر عنها علنًا تميل إلى الحدوث في أقصى أطراف الطيف. غالبًا ما تكون الادعاءات المقدمة لصالح أو ضد الذكاء الاصطناعي مبالغ فيها، ونظرًا لطبيعة التكنولوجيا، يصعب تقييمها.

من الضروري اتباع نهج أكثر واقعية حيث يتم استبدال المبالغة بتقييمات معايرة وأكثر تفصيلاً. ستستمر تكنولوجيا الذكاء الاصطناعي في التطور، ويظهر التاريخ أن كل تقنية تقريبًا لها استخدامات مفيدة وضارة. والسؤال إذن هو: كيف يمكننا تحقيق النتائج المفيدة من هذه التكنولوجيا، مع تقليل مخاطر العواقب الضارة، والتي قد يكون بعضها وجوديا في حجمها؟

إن المستقبل غير مؤكد دائمًا، ولكن هناك ما يكفي من الأصوات الموثوقة والخبراء فيما يتعلق بالذكاء الاصطناعي والذكاء الاصطناعي التوليدي لتشجيع اتباع نهج احترازي نسبيًا. بالإضافة إلى ذلك، يعد اتباع نهج الأنظمة ضروريًا لأن الذكاء الاصطناعي هو فئة من التقنيات ذات الاستخدام والتطبيق على نطاق واسع من قبل أنواع متعددة من المستخدمين. وهذا يعني أنه يجب أخذ السياق الكامل في الاعتبار عند النظر في الآثار المترتبة على أي استخدام للذكاء الاصطناعي على الأفراد والحياة الاجتماعية والحياة المدنية والحياة المجتمعية وفي السياق العالمي.

على عكس معظم التقنيات الأخرى، بالنسبة للتكنولوجيات الرقمية والتكنولوجيات ذات الصلة، فإن الوقت بين التطوير والإصدار والتطبيق قصير للغاية، ويعود ذلك إلى حد كبير إلى مصالح شركات الإنتاج أو الوكالات. بحكم طبيعته ــ ونظرا لاستناده إلى العمود الفقري الرقمي ــ سيكون للذكاء الاصطناعي تطبيقات سريعة الانتشار، كما رأينا بالفعل مع تطور نماذج اللغات الكبيرة. ونتيجة لذلك، قد لا تظهر بعض الخصائص إلا بعد إطلاق سراحها، مما يعني أن هناك خطر حدوث عواقب غير متوقعة، سواء كانت خبيثة أو خيرية.

سوف تؤثر أبعاد القيم المجتمعية الهامة، خاصة عبر المناطق والثقافات المختلفة، على كيفية إدراك وقبول أي استخدام. علاوة على ذلك، تهيمن المصالح الجيواستراتيجية بالفعل على المناقشة، حيث تتقاطع المصالح السيادية والمتعددة الأطراف بشكل مستمر، مما يؤدي بالتالي إلى المنافسة والانقسام.

حتى الآن، تم النظر إلى الكثير من تنظيم التكنولوجيا الافتراضية إلى حد كبير من خلال عدسة "المبادئ" والامتثال الطوعي، على الرغم من أن قانون الاتحاد الأوروبي للذكاء الاصطناعي2 وعلى نحو مماثل، نشهد تحولًا إلى لوائح أكثر قابلية للتنفيذ ولكنها ضيقة إلى حد ما. لا يزال إنشاء نظام فعال لإدارة التكنولوجيا و/أو النظام التنظيمي على المستوى العالمي أو الوطني يمثل تحديًا ولا يوجد حل واضح. وستكون هناك حاجة إلى طبقات متعددة من عملية صنع القرار المستنيرة بالمخاطر على طول السلسلة، من المخترع إلى المنتج، إلى المستخدم، إلى الحكومة، وإلى النظام المتعدد الأطراف.

في حين تم إصدار مبادئ رفيعة المستوى من قبل اليونسكو ومنظمة التعاون الاقتصادي والتنمية والمفوضية الأوروبية والأمم المتحدة، من بين آخرين، وما زالت المناقشات رفيعة المستوى مستمرة بشأن قضايا الإدارة والتنظيم والأخلاق والسلامة المحتملة، إلا أن هناك فجوة كبيرة بين هذه المبادئ. المبادئ والإطار الإداري أو التنظيمي. هذا يحتاج إلى معالجة.

وكنقطة انطلاق، تدرس لجنة الدراسات الدولية تطوير تصنيف للاعتبارات التي يمكن لأي مطور أو منظم أو مستشار سياسات أو مستهلك أو صانع قرار الرجوع إليها. ونظرًا للآثار الواسعة النطاق لهذه التقنيات، فإن مثل هذا التصنيف يجب أن يأخذ في الاعتبار مجمل الآثار بدلاً من إطار ضيق التركيز. يتزايد التشرذم العالمي بسبب تأثير المصالح الجيواستراتيجية على عملية صنع القرار، ونظرًا للحاجة الملحة لهذه التكنولوجيا، فمن الضروري أن تدافع الأصوات المستقلة والمحايدة باستمرار عن نهج موحد وشامل.


1) هندوستان تايمز. 2023. يجب على مجموعة العشرين إنشاء لجنة دولية معنية بالتغير التكنولوجي.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) قانون الاتحاد الأوروبي للذكاء الاصطناعي. 2023. https://artificialintelligenceact.eu

تطوير الإطار التحليلي

مركز الدراسات الدولي هو المنظمة العالمية غير الحكومية الرئيسية التي تدمج العلوم الطبيعية والاجتماعية. إن نطاقها العالمي والتخصصي يعني أنها في وضع جيد يمكنها من تقديم مشورة مستقلة وذات صلة عالميًا لتوجيه الخيارات المعقدة المقبلة، خاصة وأن الأصوات الحالية في هذا المجال تأتي إلى حد كبير من الصناعة أو من المجتمعات السياسية والسياسية للقوى التكنولوجية الكبرى.

وبعد فترة من المناقشة المستفيضة، والتي شملت النظر في عملية تقييم غير حكومية، خلصت لجنة الدعم الدولية إلى أن مساهمتها الأكثر فائدة هي إنتاج إطار تحليلي تكيفي يمكن استخدامه كأساس للخطاب وصنع القرار من قبل الجميع. أصحاب المصلحة، بما في ذلك خلال أي عمليات تقييم رسمية تظهر.

وقد اتخذ الإطار التحليلي الأولي، الذي تم إصداره للمناقشة وإبداء التعليقات في أكتوبر 2023، شكل قائمة مرجعية شاملة مصممة للاستخدام من قبل المؤسسات الحكومية وغير الحكومية. حدد الإطار واستكشف إمكانات تكنولوجيا مثل الذكاء الاصطناعي ومشتقاته من خلال عدسة واسعة تشمل رفاهية الإنسان والمجتمع، بالإضافة إلى العوامل الخارجية مثل الاقتصاد والسياسة والبيئة والأمن. قد تكون بعض جوانب القائمة المرجعية أكثر أهمية من غيرها، اعتمادًا على السياق، ولكن من المرجح أن يتم اتخاذ قرارات أفضل إذا تم أخذ جميع المجالات في الاعتبار، حتى لو كان من الممكن تحديد بعضها بسرعة على أنها غير ذات صلة في حالات معينة. هذه هي القيمة المتأصلة لنهج القائمة المرجعية.

تم استخلاص الإطار الأولي من العمل والتفكير السابقين، بما في ذلك تقرير الشبكة الدولية للمشورة العلمية الحكومية (INGSA) حول الرفاهية الرقمية وإطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي،3 لعرض مجمل الفرص والمخاطر والآثار المحتملة من الذكاء الاصطناعي. كانت هذه المنتجات السابقة أكثر تقييدًا في غرضها نظرًا لوقتها وسياقها؛ هناك حاجة إلى إطار شامل يعرض مجموعة كاملة من القضايا على المدى القصير والطويل.

منذ إصدارها، تلقت ورقة المناقشة دعمًا كبيرًا من العديد من الخبراء وصانعي السياسات. وقد أيد الكثيرون على وجه التحديد التوصية الخاصة بوضع إطار تكيفي يسمح بالنظر المتعمد والاستباقي في مخاطر التكنولوجيا وآثارها، وبذلك، يأخذ في الاعتبار دائمًا مجمل الأبعاد من الفرد إلى المجتمع والأنظمة.

وكانت إحدى الملاحظات الرئيسية التي تم تقديمها من خلال التعليقات هي الاعتراف بأن العديد من الآثار التي تم النظر فيها في الإطار متعددة الأوجه بطبيعتها وتمتد عبر فئات متعددة. على سبيل المثال، يمكن النظر إلى المعلومات المضللة من المنظور الفردي والجيوستراتيجي؛ وبالتالي فإن العواقب ستكون واسعة النطاق.

كما تم اقتراح خيار إدراج دراسات حالة أو نماذج لاختبار الإطار. ويمكن استخدام ذلك لوضع مبادئ توجيهية لتوضيح كيفية استخدامه عمليا في سياقات مختلفة. ومع ذلك، سيكون هذا بمثابة مهمة كبيرة وقد يحد من كيفية إدراك المجموعات المختلفة لاستخدام هذا الإطار. ومن الأفضل أن يقوم بذلك واضعو السياسات الذين يعملون مع خبراء في ولايات قضائية أو سياقات محددة.

منذ أكتوبر 2023، كانت هناك العديد من المبادرات الوطنية والمتعددة الأطراف المهمة مع مزيد من النظر في أخلاقيات الذكاء الاصطناعي وسلامته. إن آثار الذكاء الاصطناعي على سلامة بعض أنظمتنا الحيوية، بما في ذلك الأنظمة المالية والحكومية والقانونية والتعليمية، بالإضافة إلى أنظمة المعرفة المختلفة (بما في ذلك المعرفة العلمية والمحلية)، تثير قلقًا متزايدًا. ويعكس الإطار المنقح هذه الجوانب كذلك.

وتنعكس التعليقات الواردة حتى الآن في النسخة المنقحة من الإطار التحليلي، الذي صدر الآن كدليل لصانعي السياسات.

في حين يتم تقديم الإطار في سياق الذكاء الاصطناعي والتقنيات ذات الصلة، فإنه قابل للتحويل على الفور إلى اعتبارات التقنيات الأخرى الناشئة بسرعة مثل البيولوجيا الكمومية والتركيبية.


3) Gluckman, P. and Allen, K. 2018. فهم الرفاهية في سياق التحولات الرقمية السريعة والتحولات المرتبطة بها. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) منظمة التعاون الاقتصادي والتنمية. 2022. إطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي. أوراق الاقتصاد الرقمي لمنظمة التعاون الاقتصادي والتنمية، رقم 323#. باريس، منشورات منظمة التعاون الاقتصادي والتنمية.
https://oecd.ai/en/classificatio

إطار العمل

يعرض الجدول التالي أبعاد الإطار التحليلي المفترض. يتم تقديم أمثلة لتوضيح سبب أهمية كل مجال؛ وفي السياق، سيتطلب الإطار توسيعًا ملائمًا للسياق. من المهم أيضًا التمييز بين المشكلات العامة التي تنشأ أثناء تطوير النظام الأساسي وتلك التي قد تظهر أثناء تطبيقات معينة. ولا ينبغي التعامل مع أي اعتبار واحد مدرج هنا كأولوية، وعلى هذا النحو، ينبغي فحص كل الاعتبارات.

يتم تجميع القضايا على نطاق واسع في الفئات التالية على النحو المبين أدناه:

  • الرفاهية (بما في ذلك رفاهية الأفراد أو الذات والمجتمع والحياة الاجتماعية والحياة المدنية)
  • التجارة والاقتصاد
  • بيئي
  • الجيواستراتيجية والجيوسياسية
  • التكنولوجية (خصائص النظام والتصميم والاستخدام)

يوضح الجدول الأبعاد التي قد يلزم أخذها في الاعتبار عند تقييم تقنية جديدة.

🔴إنغسا. 2018. فهم الرفاهية في سياق التحولات الرقمية السريعة والتحولات المرتبطة بها.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 أوصاف جديدة (يتم الحصول عليها من خلال الاستشارات الشاملة والتعليقات ومراجعة الأدبيات)

🟡 إطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي: أداة لسياسات الذكاء الاصطناعي الفعالة.
https://oecd.ai/en/classification

أبعاد التأثير: فردي/ ذاتي

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟡 كفاءة الذكاء الاصطناعي للمستخدمينما مدى كفاءة ودراية المستخدمين المحتملين بخصائص النظام والذين سيتفاعلون مع النظام؟ كيف سيتم تزويدهم بمعلومات المستخدم والتحذيرات ذات الصلة؟
🟡 صاحب المصلحة المتأثرمن هم أصحاب المصلحة الرئيسيون الذين سيتأثرون بالنظام (الأفراد، المجتمعات، الضعفاء، العاملون في القطاعات، الأطفال، صناع السياسات، المهنيون، إلخ)؟
🟡 الاختياريةهل يتم منح المستخدمين الفرصة لإلغاء الاشتراك في النظام أم يتم منحهم فرصًا للطعن في المخرجات أو تصحيحها؟
🟡المخاطر التي تهدد حقوق الإنسان والقيم الديمقراطيةهل يؤثر النظام بشكل أساسي على حقوق الإنسان، بما في ذلك على سبيل المثال لا الحصر، الخصوصية وحرية التعبير والإنصاف وعدم التمييز وما إلى ذلك؟
🟡التأثيرات المحتملة على رفاهية الناسهل تتعلق مجالات تأثير النظام برفاهية المستخدم الفردي (جودة الوظيفة، التعليم، التفاعلات الاجتماعية، الصحة العقلية، الهوية، البيئة وما إلى ذلك)؟
🟡 احتمالية نزوح العمالة البشريةهل هناك إمكانية للنظام لأتمتة المهام أو الوظائف التي كان ينفذها البشر؟ وإذا كان الأمر كذلك، فما هي العواقب المترتبة على ذلك؟
🟡 احتمالية التلاعب بالهوية أو القيم أو المعرفةهل النظام مصمم أو من المحتمل أن يكون قادرًا على التعامل مع هوية المستخدم أو
ضبط القيم أم نشر المعلومات المضللة؟
🔴 فرص للتعبير عن الذات وتحقيق الذاتهل هناك احتمال للخداع والشك في الذات؟ هل هناك احتمال كاذبة أو
ادعاءات لا يمكن التحقق منها من الخبرة؟
🔴 مقاييس قيمة الذاتهل هناك ضغط لتصوير الذات المثالية؟ هل يمكن للأتمتة أن تحل محل الشعور؟
من تحقيق الشخصية؟ هل هناك ضغوط لمنافسة النظام في
مكان العمل؟ هل من الصعب حماية السمعة الفردية من المعلومات المضللة؟
🔴 الخصوصيةهل هناك مسؤوليات متناثرة لحماية الخصوصية، وهل هناك أي مسؤوليات
الافتراضات التي يتم وضعها حول كيفية استخدام البيانات الشخصية؟
🔴 الحكم الذاتيهل يمكن لنظام الذكاء الاصطناعي أن يؤثر على استقلالية الإنسان من خلال توليد الاعتماد المفرط عليه؟
المستخدمين النهائيين؟
🔴 التنمية البشريةهل هناك تأثير على اكتساب المهارات الأساسية للتنمية البشرية مثل
الوظائف التنفيذية أو مهارات التعامل مع الآخرين، أو التغيرات في وقت الاهتمام التي تؤثر
التعلم وتنمية الشخصية ومخاوف الصحة العقلية وما إلى ذلك؟
🔴الرعاية الصحية الشخصيةهل هناك ادعاءات بالتشخيص الذاتي أو حلول الرعاية الصحية الشخصية؟ لو ذلك،
هل تم التحقق من صحتها وفقًا للمعايير التنظيمية؟
🔴الصحة النفسيةهل هناك خطر لزيادة القلق أو الشعور بالوحدة أو مشاكل الصحة العقلية الأخرى، أو
هل يمكن للتكنولوجيا أن تخفف من هذه التأثيرات؟
🟢 تطور الإنسانهل يمكن لنماذج اللغة الكبيرة والذكاء العام الاصطناعي أن يغيرا الواقع؟
مسار تطور الإنسان؟
🟢 التفاعل بين الإنسان والآلةهل يمكن أن يؤدي الاستخدام إلى فقدان المهارات والاعتماد على الأفراد بمرور الوقت؟ نكون
هناك آثار على التفاعل البشري؟
5) المعايير التكنولوجية التي تم النظر فيها في الإطار مخصصة خصيصًا للذكاء الاصطناعي وستحتاج إلى المراجعة بالنسبة للتكنولوجيات الأخرى حسب الاقتضاء.

أبعاد التأثير: المجتمع/ الحياة الاجتماعية

المعايير أمثلة على كيفية انعكاس ذلك في التحليل
🔴 القيم المجتمعيةهل يغير النظام طبيعة المجتمع بشكل جذري، أو يتيح تطبيع الأفكار التي كانت تعتبر في السابق معادية للمجتمع، أو ينتهك القيم المجتمعية للثقافة التي يتم تطبيقه فيها؟
🔴 التفاعلات الاجتماعيةهل هناك تأثير على الاتصال الإنساني الهادف، بما في ذلك العلاقات العاطفية؟
🔴 صحة السكانهل هناك إمكانية للنظام لتعزيز أو تقويض نوايا صحة السكان؟
🔴 التعبير الثقافيهل من المحتمل أو يصعب معالجة الزيادة في الاستيلاء الثقافي أو التمييز؟ هل الاعتماد على نظام اتخاذ القرار يستبعد أو يهمش الروابط الفئوية ذات الصلة ثقافيا في المجتمع؟
🔴 التعليم العموميهل هناك تأثير على أدوار المعلم أو المؤسسات التعليمية؟ هل يؤكد النظام على الفجوة الرقمية وعدم المساواة بين الطلاب أو يقلل منها؟ هل القيمة الجوهرية للمعرفة أو الفهم النقدي متقدمة أم مقوضة؟
🟢 حقائق مشوهةهل لا تزال الأساليب المستخدمة لتمييز ما هو حقيقي قابلة للتطبيق؟ هل تصور الواقع معرض للخطر؟

أبعاد التأثير: السياق الاقتصادي (التجاري)

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟡 القطاع الصناعيفي أي قطاع صناعي يتم نشر النظام (المالية، الزراعة، الرعاية الصحية، التعليم، الدفاع، إلخ)؟
🟡 نموذج العملفي أي وظيفة عمل يتم استخدام النظام وبأي صفة؟ أين يتم استخدام النظام (خاص، عام، غير ربحي)؟
🟡 التأثيرات على الأنشطة الحرجة هل سيؤثر تعطيل وظيفة النظام أو نشاطه على الخدمات الأساسية أو البنى التحتية الحيوية؟
🟡 اتساع نطاق النشركيف يتم نشر النظام (الاستخدام الضيق داخل الوحدة مقابل الاستخدام الواسع النطاق على المستوى الوطني/الدولي)؟
🟡 النضج الفنيما مدى نضج النظام من الناحية الفنية؟
🟢 إمكانية التشغيل البيني هل من المحتمل أن تكون هناك صوامع، على المستوى الوطني أو العالمي، تمنع التجارة الحرة وتؤثر على التعاون مع الشركاء؟
🟢 السيادة التكنولوجيةهل الرغبة في السيادة التكنولوجية هي التي تقود السلوكيات، بما في ذلك السيطرة على سلسلة توريد الذكاء الاصطناعي بأكملها؟
🔴إعادة توزيع الدخل والروافع المالية الوطنيةهل يمكن المساس بالأدوار الأساسية للدولة ذات السيادة (على سبيل المثال، البنوك الاحتياطية)؟ فهل ستتقدم أم ستتقلص قدرة الدولة على تلبية توقعات المواطنين وانعكاساتها (الاجتماعية والاقتصادية والسياسية وغيرها)؟
🟢 الفجوة الرقمية (تقسيم الذكاء الاصطناعي) هل تتفاقم أوجه عدم المساواة الرقمية الحالية أم تنشأ حالات جديدة؟

أبعاد التأثير: الحياة المدنية

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🔴الحكم والخدمة العامةوهل يمكن أن تتأثر آليات الحوكمة ونظام الحوكمة العالمي إيجاباً أم سلباً؟
🔴 وسائل الإعلام الإخباريةهل من المحتمل أن يصبح الخطاب العام مستقطبًا وراسخًا على مستوى السكان؟ فهل سيكون هناك تأثير على مستويات الثقة في السلطة الرابعة؟ فهل ستتأثر أخلاقيات الصحافيين التقليدية ومعايير النزاهة بشكل أكبر؟
🔴 سيادة القانونهل سيكون هناك تأثير على القدرة على تحديد الأفراد أو المنظمات لمحاسبتهم (على سبيل المثال، ما نوع المساءلة التي سيتم تعيينها لخوارزمية للنتائج السلبية)؟ هل هناك فقدان للسيادة (البيئية والمالية والاجتماعية والأخلاقية وما إلى ذلك)؟
🔴السياسة والتماسك الاجتماعيهل هناك إمكانية لوجهات نظر سياسية أكثر رسوخاً وفرص أقل لبناء الإجماع؟ هل هناك إمكانية لمزيد من تهميش الفئات؟ هل أصبحت الأساليب العدائية في السياسة أكثر أو أقل احتمالا؟
🟢 رخصة اجتماعيةهل هناك مخاوف تتعلق بالخصوصية، وقضايا ثقة، ومخاوف أخلاقية يجب أخذها في الاعتبار عند قبول أصحاب المصلحة للاستخدام؟
🟢 المعرفة الأصليةهل يمكن إتلاف معارف وبيانات السكان الأصليين أو اختلاسها؟ هل هناك تدابير كافية للحماية من التحريف والمعلومات الخاطئة والاستغلال؟
🟢 النظام العلميهل النزاهة الأكاديمية والبحثية معرضة للخطر؟ هل هناك فقدان للثقة في العلم؟ هل هناك احتمالات لسوء الاستخدام أو الإفراط في الاستخدام أو سوء الاستخدام؟ ما هي نتيجة ممارسة العلم؟

أبعاد التأثير: السياق الجيوستراتيجي/الجيوسياسي

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟢 مراقبة دقيقةهل الأنظمة مدربة على البيانات السلوكية والبيولوجية الفردية وهل يمكن استخدامها لاستغلال الأفراد أو المجموعات؟
🟢 المنافسة الرقميةهل يمكن للجهات الفاعلة الحكومية أو غير الحكومية (مثل شركات التكنولوجيا الكبرى) تسخير الأنظمة والبيانات لفهم السكان والأنظمة البيئية في البلدان الأخرى والسيطرة عليها، أو تقويض السيطرة القضائية؟
🟢 المنافسة الجيوسياسيةهل يمكن للنظام إثارة المنافسة بين الدول حول تسخير البيانات الفردية والجماعية للمصالح الاقتصادية والطبية والأمنية؟
🟢 التحول في القوى العالميةفهل أصبح وضع الدول القومية، باعتبارها الجهات الفاعلة الجيوسياسية الأساسية في العالم، مهدداً؟ فهل تتمتع شركات التكنولوجيا بالسلطة التي كانت في السابق حكراً على الدول القومية، وهل أصبحت جهات فاعلة مستقلة وذات سيادة (النظام العالمي التكنولوجي الناشئ)؟
🟢 معلومات مضللةهل سيسهل النظام إنتاج ونشر المعلومات المضللة من قبل الجهات الحكومية وغير الحكومية بما يؤثر على التماسك الاجتماعي والثقة والديمقراطية؟
🟢 التطبيقات ذات الاستخدام المزدوجهل هناك إمكانية للتطبيق العسكري وكذلك الاستخدام المدني؟
🟢 تفتيت النظام العالميهل يمكن أن تتطور صوامع أو مجموعات من التنظيم والامتثال بحيث تعيق التعاون وتؤدي إلى تناقضات في التطبيق وتخلق مجالاً للصراع؟

أبعاد التأثير: بيئية

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟢 استهلاك الطاقة والموارد (البصمة الكربونية)هل يزيد النظام والمتطلبات من استهلاك الطاقة والموارد بالإضافة إلى مكاسب الكفاءة التي يتم الحصول عليها من خلال التطبيق؟
🟢 مصدر الطاقةمن أين يتم الحصول على الطاقة اللازمة للنظام (الوقود المتجدد مقابل الوقود الأحفوري وما إلى ذلك)؟

أبعاد التأثير: البيانات والمدخلات

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟡 التوجيه والتحصيلهل يتم جمع البيانات والمدخلات بواسطة البشر أم بواسطة أجهزة الاستشعار الآلية أم كليهما؟
🟡 مصدر البياناتهل البيانات والمدخلات المقدمة من الخبراء مقدمة أم تمت ملاحظتها أم أنها اصطناعية أم مشتقة؟ هل هناك حماية للعلامة المائية لتأكيد المصدر؟
🟡 الطبيعة الديناميكية للبياناتهل البيانات ديناميكية أم ثابتة أم يتم تحديثها من وقت لآخر أم في الوقت الفعلي؟
🟡 الحقوقهل البيانات ملكية أم عامة أم شخصية (تتعلق بأفراد يمكن تحديد هويتهم)؟
🟡 تحديد الهوية والبيانات الشخصيةإذا كانت شخصية، هل البيانات مجهولة المصدر أم مستعارة؟
🟡 بنية البياناتهل البيانات منظمة أم شبه منظمة أم معقدة منظمة أم غير منظمة؟
🟡 تنسيق البياناتهل تنسيق البيانات والبيانات الوصفية موحد أم غير موحد؟
🟡 مقياس البياناتما هو مقياس مجموعة البيانات؟
🟡 ملاءمة وجودة البيانات هل مجموعة البيانات مناسبة للغرض؟ هل حجم العينة مناسب؟ هل هي ممثلة وكاملة بما فيه الكفاية؟ ما مدى ضجيج البيانات؟ هل هو عرضة للخطأ؟

أبعاد التأثير: النموذج

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟡 توفر المعلوماتهل تتوفر أي معلومات حول نموذج النظام؟
🟡 نوع نموذج الذكاء الاصطناعيهل النموذج رمزي (قواعد من صنع الإنسان) أم إحصائي (بيانات الاستخدام) أم مختلط؟
🟡 الحقوق المرتبطة بالنموذجهل النموذج مفتوح المصدر أم مملوك، أم تتم إدارته ذاتيًا أم بواسطة طرف ثالث؟
🟡 مفرد من موديلات متعددةهل يتكون النظام من نموذج واحد أم عدة نماذج مترابطة؟
🟡 توليدية أو تمييزيةهل النموذج توليدي أم تمييزي أم كليهما؟
🟡 البناء النموذجيهل يتعلم النظام بناءً على قواعد كتبها الإنسان، من البيانات، من خلال التعلم الخاضع للإشراف أو من خلال التعلم المعزز؟
🟡 تطور النموذج (انجراف الذكاء الاصطناعي)هل يتطور النموذج و/أو يكتسب قدرات من التفاعل مع البيانات في الميدان؟
🟡 التعلم الموحد أو المركزيهل تم تدريب النموذج مركزيًا أو في عدة خوادم محلية أو أجهزة "حافة"؟
🟡 التطوير/الصيانةهل النموذج عالمي أم قابل للتخصيص أم مصمم خصيصًا لبيانات ممثل الذكاء الاصطناعي؟
🟡 حتمية أو احتمالية هل النموذج مستخدم بطريقة حتمية أم احتمالية؟
🟡 الشفافية النموذجية هل المعلومات متاحة للمستخدمين للسماح لهم بفهم مخرجات النموذج وقيوده أو قيود الاستخدام؟
🟢 القيد الحسابيهل هناك قيود حسابية على النظام؟ هل من الممكن التنبؤ بقفزات القدرات أو قوانين القياس؟

أبعاد التأثير: المهمة والمخرجات

المعاييرأمثلة على كيفية انعكاس ذلك في التحليل
🟡 المهمة (المهام) التي يؤديها النظامما هي المهام التي يؤديها النظام (التعرف، والكشف عن الأحداث، والتنبؤ، وما إلى ذلك)؟
🟡 الجمع بين المهام والإجراءاتهل يجمع النظام بين عدة مهام وإجراءات (أنظمة توليد المحتوى، الأنظمة الذاتية، أنظمة التحكم، إلخ)؟
🟡 مستوى استقلالية النظام ما مدى استقلالية تصرفات النظام وما هو الدور الذي يلعبه البشر؟
🟡 درجة المشاركة البشريةهل هناك بعض المشاركة البشرية للإشراف على النشاط العام لنظام الذكاء الاصطناعي والقدرة على تحديد متى وكيف يتم استخدام نظام الذكاء الاصطناعي في أي موقف؟
🟡 التطبيق الأساسيهل ينتمي النظام إلى مجال التطبيق الأساسي مثل تقنيات اللغة البشرية أو رؤية الكمبيوتر أو الأتمتة و/أو التحسين أو الروبوتات؟
🟡 التقييمهل المعايير أو الأساليب المتاحة لتقييم مخرجات النظام؟

كيف يمكن استخدام هذا الإطار؟

ويمكن استخدام هذا الإطار بعدة طرق، بما في ذلك:

  • لسد الفجوة بين المبادئ رفيعة المستوى والتقييم لأغراض تنظيمية أو إدارية. ويمكن للإطار أن يدعم ذلك من خلال إنشاء تصنيف مشترك معتمد لمجموعة من القضايا التي تستحق النظر فيها من قبل أصحاب المصلحة المعنيين كأساس لإرشاد وتشكيل المزيد من التفكير. على سبيل المثال، على المستوى الوطني، يمكن استخدام الإطار كأداة من قبل الحكومة أثناء تطوير استراتيجية وسياسات وطنية للذكاء الاصطناعي لإنشاء أساس مشترك للمخاطر والفرص عبر مجموعات أصحاب المصلحة.
  • لإبلاغ تقييمات الأثر. يتطلب قانون الذكاء الاصطناعي في الاتحاد الأوروبي من المنظمات التي توفر أدوات الذكاء الاصطناعي أو تعتمد الذكاء الاصطناعي في عملياتها إجراء تقييم الأثر لتحديد مخاطر مبادراتها وتطبيق نهج مناسب لإدارة المخاطر. ويمكن استخدام الإطار المعروض هنا كأساس لذلك.
  • لإبلاغ المسح الأفقي للمخاطر والسيناريوهات المستقبلية. يتماشى تصنيف المخاطر في التقرير المؤقت الصادر عن الهيئة الاستشارية للذكاء الاصطناعي التابعة للأمم المتحدة6 بشكل عام مع الإطار المعروض في الإطار هنا. هناك فرصة لاستخدام الإطار لبناء توافق في الآراء واختبار مدى خطورة المخاطر الناشئة وكذلك استباقها.
  • لتعزيز المبادئ الأخلاقية اللازمة لتوجيه وإدارة استخدام الذكاء الاصطناعي. ويمكن للإطار أن يفعل ذلك من خلال توفير أساس مرن يمكن من خلاله تطوير أنظمة جديرة بالثقة وضمان الاستخدام القانوني والأخلاقي والقوي والمسؤول للتكنولوجيا. ويمكن اختبار هذه المبادئ مقابل مجموعة كاملة من التأثيرات المعروضة في هذا الإطار.
  • لتسهيل تقييم التدابير الحالية والمتطورة (التنظيمية والتشريعية والسياساتية والمعايير والحوكمة وما إلى ذلك) وتحديد الثغرات التي تحتاج إلى مزيد من الدراسة. ويمكن رسم خرائط لهذه الفئات الإطارية على المستوى الوطني أو المتعدد الجنسيات لتحديد الثغرات وتحديد التدابير المناسبة للتخفيف من المخاطر.
  • لدعم الاستخدام الحكومي للذكاء الاصطناعي. وبما أن العديد من الحكومات تحدد استراتيجياتها الخاصة لاستخدام الذكاء الاصطناعي داخل الوكالات والأنظمة، فيمكن استخدام الإطار لتحديد عتبات المخاطر المناسبة وتحديد أصحاب المصلحة الرئيسيين والمسؤوليات.
  • لدعم الخطاب العام وإنشاء ترخيص اجتماعي حول كيفية استخدام الذكاء الاصطناعي والبيانات الأساسية التي سيتم استخدامها عبر الخدمات الحكومية أو على نطاق أوسع في المجتمع.

الطريق إلى الأمام
باختصار، يتم توفير الإطار التحليلي كأساس لمجموعة أدوات يمكن أن يستخدمها أصحاب المصلحة للنظر بشكل شامل في أي تطورات مهمة سواء في المنصات أو الاستخدام بطريقة متسقة ومنهجية. إن الأبعاد المعروضة في هذا الإطار لها صلة بتقييم التكنولوجيا بالسياسة العامة، ومن التنمية البشرية إلى علم الاجتماع، ودراسات المستقبل والتكنولوجيا. على الرغم من أنه تم تطويره من أجل الذكاء الاصطناعي، إلا أن هذا الإطار التحليلي له تطبيق أوسع بكثير على أي تقنية ناشئة أخرى.

6 المجلس الاستشاري لمنظمة العفو الدولية التابع للأمم المتحدة. 2023. تقرير مؤقت: إدارة الذكاء الاصطناعي من أجل الإنسانية. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

شكر وتقدير

لقد تمت استشارة العديد من الأشخاص وقدموا تعليقاتهم في تطوير ورقة المناقشة الأولية والتعليقات بعد إصدارها. وقد قام بصياغة الورقتين السير بيتر جلوكمان، رئيس مركز الدراسات الدولي وهيما سريدهار، كبير المستشارين العلميين السابق بوزارة الدفاع في نيوزيلندا والآن زميل أبحاث أول في جامعة أوكلاند بنيوزيلندا.

وعلى وجه الخصوص، اللورد مارتن ريس، الرئيس السابق للجمعية الملكية والمؤسس المشارك لمركز دراسة المخاطر الوجودية بجامعة كامبريدج؛ والبروفيسور شيفاجي سوندي، أستاذ الفيزياء بجامعة أكسفورد؛ والبروفيسور ك. فيجاي راغافان، المستشار العلمي الرئيسي السابق لحكومة الهند؛ أمانديب سينغ جيل، مبعوث الأمين العام للأمم المتحدة المعني بالتكنولوجيا؛ شون أوهيجيارتاي، المدير التنفيذي لمركز دراسة المخاطر الوجودية، جامعة كامبريدج؛ السير ديفيد سبيجلهالتر، أستاذ وينتون للفهم العام للمخاطر، الجامعة
كامبريدج؛ أماندا جون براونر، كبيرة مستشاري السياسات وإيان ويغينز، مدير الشؤون الدولية، الجمعية الملكية، المملكة المتحدة؛ والدكتور جيروم دوبيري، المدير العام والدكتورة ماري لور ساليس، مديرة معهد جنيف للدراسات العليا؛ وتشور فارن لي، مركز المستقبل الاستراتيجي، مكتب رئيس الوزراء، سنغافورة؛ وبارند مونس والدكتور سايمون هودسون، لجنة البيانات (CoDATA)؛ البروفيسور يوكو هاراياما، المدير التنفيذي السابق لـ RIKEN؛ أستاذ
وريمي كيريون، رئيس INGSA؛ والدكتورة كلير كريج، جامعة أكسفورد والرئيسة السابقة لقسم الاستشراف بالمكتب الحكومي للعلوم؛ البروفيسور يوشوا بنجيو، المجلس الاستشاري العلمي للأمين العام للأمم المتحدة وفي جامعة مونتريال؛ والعديد من الأشخاص الآخرين الذين قدموا تعليقاتهم إلى لجنة الدراسات الدولية بشأن ورقة المناقشة الأولية.


لمزيد من القراءة

إعداد النظم البيئية البحثية الوطنية للذكاء الاصطناعي: الاستراتيجيات والتقدم في عام 2024

توفر ورقة العمل هذه الصادرة عن مركز الأبحاث التابع لمركز الدراسات الدولي، مركز مستقبل العلوم، معلومات أساسية وإمكانية الوصول إلى الموارد من بلدان من جميع أنحاء العالم، في مراحل مختلفة من دمج الذكاء الاصطناعي في أنظمتها البيئية البحثية.

انتقل إلى المحتوى