
مع اكتساب قدرات الذكاء الاصطناعي المتقدمة اهتمامًا واسع النطاق منذ أواخر عام 2022، زاد الاهتمام بإدارة وتنظيم هذه الأنظمة. لقد أصبحت مناقشة المخاطر الكارثية المحتملة الناجمة عن الذكاء الاصطناعي المنحرف أو الذي لا يمكن السيطرة عليه أكثر بروزاً، مما قد يفتح الفرص أمام السياسات التي يمكن أن تخفف من التهديدات.
لا يزال هناك الكثير من عدم اليقين بشأن استراتيجيات حوكمة الذكاء الاصطناعي الأفضل. لكن بعض الأفكار المتعلقة بالسياسات والاستراتيجيات التي من شأنها الحد من المخاطر تبدو واعدة، على سبيل المثال، قائمة بالأفكار السياسية المحتملة (1) واستطلاع رأي الخبراء حول أفضل الممارسات في مجال سلامة الذكاء الاصطناعي وإدارته (2).
ربما لم نتمكن من العثور على أفضل الأفكار حتى الآن في هذا المجال، ولا يزال هناك الكثير من العمل لمعرفة كيفية عمل السياسات والاستراتيجيات الواعدة في الممارسة العملية.
لقد تم طرح موضوعة الحوكمة في بلدنا العراق في المؤتمر العلمي الأول للحوكمة الإلكترونية الذي عقد تحت شعار "نحو خدمات الكترونية أفضل في العراق" في الفترة 20 – 21 من كانون الأول| ديسمبر 2009، الذي أقامته وزارة العلوم والتكنولوجيا المنحلة، ثم في ورش العمل التي أقيمت بالتنسيق مع البرنامج الإنمائي للأمم المتحدة وبقية وزارات الدولة ومؤسسات الدولة كافة ذات الاختصاص.
تعد حوكمة الذكاء الاصطناعي جانبًا حاسمًا في تطويره واستخدامه. وتهدف إلى إنشاء إطار للاستخدام المسؤول والأخلاقي، وحماية حقوق الأفراد وحرياتهم. لكن ما هي حوكمة الذكاء الاصطناعي بالضبط، ولماذا هي ضرورية؟
حوكمة الذكاء الاصطناعي، لماذا هي مهمة؟
حوكمة الذكاء الاصطناعي هي مجموعة من المبادئ واللوائح والأطر التي توجه تطوير تقنيات الذكاء الاصطناعي ونشرها وصيانتها. ويأخذ في الاعتبار جوانب مختلفة مثل الأخلاق والتحيز والعدالة والشفافية والمساءلة وإدارة المخاطر.
الهدف الأساسي من هذه الحوكمة هو ضمان الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي. وتكمن أهميتها في القدرة على التخفيف من المخاطر المرتبطة بتطبيقاته، بما في ذلك التحيز وانتهاكات الخصوصية والنتائج غير القابلة للتفسير. تعمل حوكمة الذكاء الاصطناعي المناسبة على بناء الثقة بين المستخدمين وأصحاب المصلحة. إنها تضمن استخدام تقنيات الذكاء الاصطناعي لأغراض مفيدة وتتوافق مع التوقعات القانونية والمجتمعية.
المبادئ الأساسية لحوكمة الذكاء الاصطناعي
في جوهر حوكمة الذكاء الاصطناعي، هناك بعض المبادئ الأساسية التي توجه تطويره وتنفيذه. وتشمل هذه:
- المبادئ الأخلاقية
لزاما أن تتبع حوكمة الذكاء الاصطناعي المبادئ الأخلاقية، مما يضمن احترام تطبيقاته لحقوق الإنسان والحريات الأساسية.
- الشفافية
على منظومات الذكاء الاصطناعي أن تتمتع بالشفافية أمام المستخدمين وأصحاب المصلحة، مما يعزز الثقة في تطوير التكنولوجيا ونشرها واستخدامها.
- المسؤولية
يجب أن يكون الأشخاص الذين يطورون أو ينشرون تقنيات الذكاء الاصطناعي مسؤولين عن أي ضرر تسببه.
- العدالة
تعمل حوكمة الذكاء الاصطناعي على تعزيز العدالة ومنع التمييز والتحيز في تطوير تطبيقات الذكاء الاصطناعي واستخدامها.
- إدارة المخاطر
نحن بحاجة إلى تقييم المخاطر وإدارتها بشكل مناسب لتحديد وتخفيف المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي.
- إمكانية التدقيق
يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتدقيق. وينبغي تتبع العمليات والقرارات التي تتخذها وشرحها بسهولة.
- الرقابة البشرية
من الواجب أن يتمتع البشر بمستوى من التحكم واتخاذ القرارات في عمل أنظمة الذكاء الاصطناعي لضمان الاستخدام الأخلاقي.
هذه المبادئ هي الأساس لحوكمة الذكاء الاصطناعي المسؤولة (3). ومن الضروري أخذها في الاعتبار في أي إطار أو لائحة تتعلق بالذكاء الاصطناعي. لفهم سبب استثمار المؤسسات، الشركات والحكومات في حوكمة الذكاء الاصطناعي، نحتاج إلى نظرة فاحصة على تطوره التاريخي.
السياق التاريخي وتطور حوكمة الذكاء الاصطناعي
إن مفهوم حوكمة الذكاء الاصطناعي ليس بالمفهوم الجديد. لقد ظهرت وتطورت بالتزامن مع تقدم وانتشار تقنيات الذكاء الاصطناعي. في الأيام الأولى، كانت حوكمة الذكاء الاصطناعي مجالًا تم تجاهله نسبيًا، نظرًا للطبيعة التجريبية للذكاء الاصطناعي. ولكن مع تزايد وضوح العواقب والآثار المحتملة له، أصبحت الحاجة إلى حوكمة منظمة أمراً بالغ الأهمية.
في السنوات الأخيرة، أدت الحوادث البارزة التي تتعلق بالذكاء الاصطناعي إلى تسليط الضوء على الحاجة إلى الحوكمة. على سبيل المثال، في حادثة مثيرة للقلق، شهدت هولندا فضيحة كبيرة ناجمة عن سوء استخدام الذكاء الاصطناعي، حيث عانت الكثير من العوائل الهولندية من عواقب وخيمة عندما استخدمت هيئة الضرائب خوارزمية لتحديد الاحتيال المشتبه به في الفوائد التي تتلقاها هذه العوائل.
عُرفت هذه الفضيحة باسم "toeslagenaffaire"، أو فضيحة مزايا رعاية الأطفال(4). استخدمت سلطات الضرائب الهولندية خوارزمية التعلم الذاتي لاكتشاف مخاطر الاحتيال. لكن، كان هناك خلل في عمل النظام بسبب مؤشرات المخاطر المستخدمة فيه؛ التي أدت الى معاقبة العديد من الأسر بسبب الاشتباه في احتيالهم.
أدى ذلك إلى إفقار عشرات الآلاف من الأسر، حتى أن بعض الضحايا لجأوا إلى الانتحار. تسلط هذه الكارثة الضوء على الدمار المحتمل الذي يمكن أن يحدث من الأنظمة الآلية دون وجود الضمانات اللازمة.
كما واجهت أمازون تحديات مماثلة مع منظومة التوظيف المعتمدة على الذكاء الاصطناعي والتي تبين أنها تظهر تحيزًا ضد النساء. استخدمت المنظومة، التي تم تطويرها في عام 2014، التعلم الآلي لمراجعة السير الذاتية وتقييم المتقدمين للوظائف. قامت أمازون باستخدام هذه المنظومة لتبسيط عملية اكتساب المواهب، وتخصيص درجات للمرشحين مثل تقييم المتسوقين في أمازون للمنتجات.
لكن، بحلول عام 2015، اكتشفت الشركة أن النظام لم يكن يصنف المرشحين للمناصب الفنية بطريقة محايدة لنوع جنس المرشح؛ وكان هذا بسبب بيانات التدريب المنحرفة، حيث أن معظم السير الذاتية جاءت من الرجال، مما عكس هيمنة الذكور في صناعة التكنولوجيا. وهكذا تعلمت الخوارزمية أن المرشحين الذكور هم الأفضل، حتى أن الخوارزمية أهملت السير الذاتية التي تضمنت كلمة "سيدة". أدى هذا في النهاية إلى قيام أمازون بإلغاء المشروع (5).
مثال آخر هو التسوية الأخيرة مع لجنة تكافؤ فرص العمل (EEOC) والتي تتضمن تحيزًا مزعومًا للذكاء الاصطناعي في التوظيف. تناولت قضية EEOC ضد iTutorGroup الادعاء بأن أداة توظيف الذكاء الاصطناعي الخاصة بـ iTutorGroup أظهرت تحيزًا على أساس السن والجنس(6). وأدى ذلك إلى رفض المتقدمين الذكور الذين تزيد أعمارهم عن 60 عامًا والإناث الذين تزيد أعمارهن عن 55 عامًا.
نفى المتهمون هذه الادعاءات. لكن، تسلط التسوية الضوء على أن أدوات الذكاء الاصطناعي التي تسبب نتائج تمييزية غير مقصودة يمكن أن تؤدي إلى عواقب قانونية وخيمة.
أدت مثل هذه الحوادث إلى تزايد الطلب على الأطر واللوائح التنظيمية لإدارة تطوير الذكاء الاصطناعي وتطبيقه. على مر السنين، تم اقتراح أطر ونماذج مختلفة لحوكمة الذكاء الاصطناعي من قبل العديد من أصحاب المصلحة، بما في ذلك صناع السياسات والقادة الصناعيين والباحثين الأكاديميين، حيث ساهم كل منهم في إنضاج حوكمة الذكاء الاصطناعي.
لقد أدى هذا في النهاية إلى إدخال لائحة الاتحاد الأوروبي بشأن الذكاء الاصطناعي وغيرها من القوانين ذات الصلة مؤخرًا. وللغور في هذه اللوائح، دعونا أولاً نفهم لماذا يجب على المؤسسات بشكل عام الاستثمار في حوكمة الذكاء الاصطناعي.
لماذا تحتاج المؤسسات إلى حوكمة الذكاء الاصطناعي؟
بدون تقنيات الحوكمة المناسبة، تواجه المؤسسات مخاطر كبيرة تتمثل في الضرر القانوني والمالي والضرر الذي يلحق بالسمعة بسبب سوء الاستخدام والنتائج المتحيزة من مخزونها الخوارزمي. وبالتالي، فإن حوكمة الذكاء الاصطناعي ليست مجرد مطلب إلزامي، ولكنها ضرورة استراتيجية للتخفيف من هذه التهديدات - وعلى نطاق أوسع - تعزيز الثقة في تقنيات الذكاء الاصطناعي.
إن المؤسسات التي تستخدم الذكاء الاصطناعي في منتجاتها ملزمة بتنفيذ هياكل الحوكمة المسؤولة ولديها حافز استراتيجي للقيام بذلك. إن الإشراف والفهم الشامل لمخزون الذكاء الاصطناعي المستخدم سوف يخفف من التهديدات التي تشكلها الإدارة غير السليمة ويجعل مراقبة وتحديث الممارسات التشغيلية تتماشى مع المخاطر واللوائح المتطورة.
بالإضافة إلى ذلك، مع إقرار قانون الاتحاد الأوروبي للذكاء الاصطناعي واللوائح المماثلة (7)، فإن الشركات التي تطبق بشكل استباقي ممارسات حوكمة الذكاء الاصطناعي المسؤولة ستتمتع بميزة تنافسية عن تلك التي لا تفعل ذلك. أصبح إظهار المساءلة والشفافية في استخدام تقنيات الذكاء الاصطناعي ذا أهمية متزايدة.
أطر وقوانين حوكمة الذكاء الاصطناعي
هناك إطاران أساسيان لحوكمة الذكاء الاصطناعي معترف بهما على نطاق واسع:
- إطار إدارة مخاطر الذكاء الاصطناعي NIST(8)
- إطار عمل منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي(9).
يتقاطع كلا الإطارين في بعض المجالات، لكن كل منهما يقدم وجهة نظر وطريقة تطبيق مميزة.
إطار إدارة مخاطر الذكاء الاصطناعي
يعمل إطار إدارة مخاطر الذكاء الاصطناعي كأداة اختيارية محايدة للصناعة، مصممة لمساعدة مطوري الذكاء الاصطناعي في تقليل المخاطر واغتنام الفرص وتعزيز موثوقية أنظمة الذكاء الاصطناعي الخاصة بهم طوال عملية التطوير بأكملها. تم تصميمه لاستيعاب مختلف القطاعات، وهدفه الأساسي هو تقليل المخاطر المرتبطة بالذكاء الاصطناعي وتشجيع إنشاء أنظمة الذكاء الاصطناعي وتنفيذها بشكل مسؤول.
يتألف هذا الإطار من عنصرين رئيسيين:
- التخطيط/ الفهم والتوجيه القابل للتنفيذ. في هذا القسم، يساعد الإطار المؤسسات في تحليل مخاطر وفوائد أنظمة الذكاء الاصطناعي الخاصة بها، ويقترح طرقًا لتحديد أنظمة الذكاء الاصطناعي الجديرة بالثقة، ويصف العديد من خصائص النظام الموثوق.
- بينما يستلزم الجزء الثاني من الإطار توجيهات قابلة للتنفيذ، تتمحور حول أربعة عناصر رئيسية: الإشراف، التخطيط، القياس والإدارة. يوجه الإشراف هنا الى تبني ثقافة إدارة المخاطر، بينما يتضمن التخطيط الاعتراف بالسياقات وتحديد المخاطر، أما القياس فيستلزم تقييم هذه المخاطر وتحليلها وتتبعها. تعد الإدارة جزءًا لا يتجزأ من التخطيط والقياس، مما يسلط الضوء على ضرورة تحديد الأولويات ومعالجة المخاطر بناءً على تأثيرها المحتمل.
إطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي
يوفر إطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي إرشادات حول توصيف أدوات الذكاء الاصطناعي، بهدف إنشاء فهم مشترك لأنظمة الذكاء الاصطناعي. يقوم هذا الإطار بتقييم أنظمة الذكاء الاصطناعي من خمس زوايا مختلفة:
- الناس وكوكب الأرض: يدرس تأثير أنظمة الذكاء الاصطناعي على البيئة والمجتمع والأفراد.
- السياقات الاقتصادية: يقيم تأثير الذكاء الاصطناعي على سوق العمل وإنتاجية الموظفين والمنافسة في السوق.
- البيانات والمدخلات: تقييم نوع البيانات التي يتم إدخالها في أنظمة الذكاء الاصطناعي وعملية إدارة تلك البيانات.
- نموذج الذكاء الاصطناعي: يفحص ما إذا كان الإعداد الفني لنظام الذكاء الاصطناعي يسمح بقابلية التفسير والمتانة والشفافية.
- المهام والوظائف: تأخذ في الاعتبار وظائف نظام الذكاء الاصطناعي.
كما يهدف هذا الإطار إلى تسهيل المناقشات المتعلقة باللوائح والسياسات، وتوجيه مطوري الذكاء الاصطناعي في بناء أدوات مسؤولة، وتقييم المخاطر المحتملة.
في حين أن كلا الإطارين فعالان في التفكير في المخاطر في سياق الذكاء الاصطناعي، إلا أنهما يتم تطبيقهما بشكل أكثر فعالية على الذكاء الاصطناعي التنبئي مقابل الذكاء الاصطناعي التوليدي. ومع استمرار الذكاء الاصطناعي في التطور بسرعة، فمن المرجح أن تخضع هذه الأطر للمراجعات في المستقبل القريب. مع هذا، فإنها تشكل خطوة أولية حاسمة في فهم مخاطر الذكاء الاصطناعي وتصنيف أنواع مختلفة من أنظمة الذكاء الاصطناعي.
بالإضافة إلى ذلك، تم اقتراح أو سن قوانين معينة لتنظيم استخدام الذكاء الاصطناعي وإدارته. بصرف النظر عن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، هناك بعض اللوائح البارزة الأخرى، التي تشمل ما يلي:
قانون مبادرة الذكاء الاصطناعي الوطنية لعام 2020 (NAIIA)(10)
يعد قانون مبادرة الذكاء الاصطناعي الوطنية لعام 2020 بمثابة لائحة مهمة تقترح تعزيز وتنسيق الجهود في مجال البحث والتطوير في مجال الذكاء الاصطناعي. ويهدف القانون إلى ضمان ريادته العالمية ويتناول المجالات الحاسمة لإدارة الذكاء الاصطناعي، بما في ذلك الوصول إلى البيانات، والخصوصية، والتحيز، والمساءلة.
قانون العدالة الخوارزمية والشفافية عبر الإنترنت(11)
يعد قانون العدالة الخوارزمية والشفافية عبر الإنترنت قانونًا محوريًا آخر يسعى إلى تعزيز الشفافية والمساءلة في استخدام الذكاء الاصطناعي والخوارزميات. ويطالب المؤسسات بالكشف عن استخدام أنظمة اتخاذ القرار الآلية، بما في ذلك الذكاء الاصطناعي، وتقديم معلومات مفيدة حول منطق هذه الأنظمة وأهميتها وعواقبها.
الأمر التنفيذي بشأن الذكاء الاصطناعي الآمن والجدير بالثقة(12)
في 30 أكتوبر| تشرين الأول 2023، أصدرت الولايات المتحدة، أمرًا تنفيذيًا يضع معايير جديدة للسلامة والأمن في مجال الذكاء الاصطناعي. يتضمن هذا الأمر التنفيذي عدة توجيهات، مثل تطوير معايير جديدة لسلامة وأمن الذكاء الاصطناعي وإنشاء برنامج متقدم للأمن السيبراني.
كما يتناول حماية الخصوصية من المخاطر المحتملة التي يشكلها الذكاء الاصطناعي ويدافع عن تنفيذ الإنصاف والحقوق المدنية في استخدام الذكاء الاصطناعي. علاوة على ذلك، فهو يدافع عن المستهلكين والمرضى والطلاب من خلال ضمان الاستخدام المسؤول للذكاء الاصطناعي في مجالات مثل الرعاية الصحية والتعليم، وتشجع الابتكار والمنافسة من خلال دعم أبحاث الذكاء الاصطناعي وتطويره في جميع أنحاء البلاد.
قانون أبحاث الذكاء الاصطناعي والابتكار والمساءلة لعام 2023 (AIRIA)(13)
الهدف من هذا القانون هو البناء على الجهود الحالية التي تبذل لإنشاء بيئة آمنة وصديقة للابتكار لتطوير واستخدام الذكاء الاصطناعي، في أعقاب الأمر التنفيذي الأخير بشأن الذكاء الاصطناعي الآمن والجدير بالثقة، ومخطط ميثاق حقوق الذكاء الاصطناعي الذي أصدره البيت الأبيض.
يتمتع هذا قانون بأهمية خاصة لأنه يقدم متطلبات جديدة للشفافية والاعتماد لناشري نظام الذكاء الاصطناعي استنادًا إلى فئتين من أنظمة الذكاء الاصطناعي: "عالية التأثير" و"ذات التأثير الحرج". فهو ينشئ نظامًا جديدًا لإصدار شهادات الذكاء الاصطناعي، ويتطلب من أنظمة الذكاء الاصطناعي ذات التأثير الحرج التصديق الذاتي على الامتثال للمعايير التي طورتها وزارة التجارة. يتطلب هذا القانون أيضًا بتقديم تقارير الشفافية إلى التجارة في قطاعات الإسكان والتوظيف والائتمان، والتعليم، والرعاية الصحية، والتأمين.
مخطط لوثيقة حقوق الذكاء الاصطناعي
يعد "مخطط ميثاق حقوق الذكاء الاصطناعي"(14) وثيقة أساسية تعالج التحديات الكبيرة التي تواجه الديمقراطية من خلال استخدام التكنولوجيا والبيانات والأنظمة الآلية بطرق يمكن أن تؤدي إلى تقويض حقوق الجمهور. ويناقش كيف يمكن لهذه الأدوات أن تحد من الفرص وتمنع الوصول إلى الموارد أو الخدمات الحيوية مع تسليط الضوء على الحالات الموثقة جيدًا حيث أثبتت الأنظمة المخصصة لرعاية المرضى والتوظيف وقرارات الائتمان أنها غير آمنة أو غير فعالة أو متحيزة.
لتحقيق هذه الغاية، حددت سياسة العلوم والتكنولوجيا خمسة مبادئ توجيهية لتصميم واستخدام ونشر الأنظمة الآلية في عصر الذكاء الاصطناعي هذا:
- أنظمة آمنة وفعالة
- الحماية من التمييز الخوارزمي
- إشعارات وتفسيرات
- البدائل البشرية، واعتباراتها، والاحتياط
- خصوصية البيانات
تهدف هذه المبادئ إلى توفير الحماية عندما يكون للأنظمة الآلية تأثير كبير على حقوق الجمهور أو الفرص أو الوصول إلى الاحتياجات الحيوية. ويرافق كل مبدأ كتيب بعنوان "من المبادئ إلى الممارسة"، والذي يقدم خطوات مفصلة نحو تحقيق هذه المبادئ في عملية التصميم التكنولوجي.
القوانين واللوائح الأخرى
بصرف النظر عن هذه القوانين الرئيسية، هناك العديد من اللوائح الأخرى المقترحة أو التي تم سنها عالميًا للتحكم في استخدام الذكاء الاصطناعي. على سبيل المثال، تشمل القوانين المعمول بها في الولايات المتحدة قانون تدريب الذكاء الاصطناعي(15)، وقانون مبادرة الذكاء الاصطناعي الوطنية(16)، وقانون الذكاء الاصطناعي في الحكومة(17)، إلى جانب مشاريع قوانين مثل قانون مساءلة الخوارزميات (18)، وقانون لجنة الذكاء الاصطناعي الوطنية (19)، وقانون لجنة المنصات الرقمية (20)، وقانون قيادة التكنولوجيا العالمية (21).
في كندا، يهدف قانون الذكاء الاصطناعي والبيانات(22) المتوقع، وهو جزء من مشروع القانون C-27، إلى حماية الكنديين من الأنظمة عالية المخاطر، وضمان تطوير الذكاء الاصطناعي المسؤول، ووضع الشركات والقيم الكندية في مكانة يمكن اعتمادها في تطوير الذكاء الاصطناعي العالمي.
أصدر الاتحاد الأوروبي، بالإضافة الى قانون الاتحاد الأوروبي للذكاء الاصطناعي(23)، لوائح أخرى مثل اللائحة العامة لحماية البيانات (GDPR)(24)، وقانون الخدمات الرقمية(25)، وقانون الأسواق الرقمية(26)، بهدف حماية خصوصية المستخدمين ومنع عمالقة التكنولوجيا من استخدام هيمنتهم على السوق في مكافحة الممارسات التنافسية.
في حين أن المملكة المتحدة ليس لديها بعد، تنظيم شامل للذكاء الاصطناعي، فقد اقترحت الحكومة نهجا مناسبا قائما على السياق في التنظيم. مع وضع هذا المنظور في الاعتبار، سيتم استخدام القوانين القطاعية القائمة لفرض حواجز الحماية اللازمة على أنظمة الذكاء الاصطناعي.
أحد هذه الموارد هو وثيقة "النهج المؤيد للابتكار في تنظيم الذكاء الاصطناعي"(27)، والتي تؤكد التزام الحكومة بتعزيز الابتكار في مجال الذكاء الاصطناعي. ومن الموارد المهمة الأخرى "المركز القياسي لتسجيل الشفافية الخوارزمية"، وهي مبادرة تهدف إلى تعزيز الشفافية في تطبيقات الذكاء الاصطناعي.
بالإضافة إلى ذلك، في قمة بلتشلي بارك للذكاء الاصطناعي (Bletchley Park AI) الأخيرة، شاركت مجموعة من القادة العالميين وشخصيات صناعة التكنولوجيا وأعربوا عن مخاوفهم البالغة بشأن الذكاء الاصطناعي. وكانت القمة(28) بمثابة منصة مهمة للمناقشات المفتوحة حول المخاطر والمكافآت المحتملة للذكاء الاصطناعي، مع التركيز على الحاجة إلى حوكمة مسؤولة للذكاء الاصطناعي واستراتيجيات فعالة لإدارة المخاطر.
كما أصدرت دول مثل سنغافورة والصين والإمارات العربية المتحدة والبرازيل وأستراليا استراتيجيات وطنية للذكاء الاصطناعي(29)، مما يضع الأساس لحوكمة الذكاء الاصطناعي المسؤولة والأخلاقية في جميع أنحاء العالم.
معايير ISO وIEEE لحوكمة الذكاء الاصطناعي.
بصرف النظر عن اللوائح الحكومية، قامت منظمات المعايير الدولية مثل ISO (المنظمة الدولية للتوحيد القياسي) وIEEE (معهد مهندسي الكهرباء والإلكترونيات) أيضًا بتطوير معايير تتعلق بحوكمة الذكاء الاصطناعي.
في 6 فبراير 2023، أصدرت المنظمة الدولية للمعايير دليل ISO/IEC 23894 :2023(30)، وهو عبارة عن وثيقة مهمة تهدف إلى إدارة مخاطر الذكاء الاصطناعي. يوفر هذا التوجيه رؤى أساسية للمؤسسات المشاركة في تطوير أنظمة الذكاء الاصطناعي أو نشرها أو استخدامها، مما يساعدها على التغلب على المخاطر الفريدة المرتبطة بهذه التقنيات.
إنه بمثابة خريطة طريق لدمج إدارة المخاطر في العمليات المتعلقة بالذكاء الاصطناعي بشكل فعال. ولتوفير نهج منظم، تم تقسيم الإرشادات إلى ثلاثة أقسام أساسية. الأول، البند 4، يحدد المبادئ الأساسية لإدارة المخاطر. أما البند الثاني، البند 5، فهو مخصص لتوضيح إطار إدارة المخاطر، في حين أن الثالث، البند 6، يشرح عمليات إدارة المخاطر.
بالإضافة إلى ذلك، أنشأت المنظمة الدولية للتوحيد القياسي أيضًا مجموعة من المعايير(31) لتوجيه الحوكمة المسؤولة للذكاء الاصطناعي، بما في ذلك IEEE P2863™ - الممارسة الموصى بها للحوكمة التنظيمية للذكاء الاصطناعي.
تحدد وثيقة التوجيه الشاملة هذه معايير حاسمة لحوكمة الذكاء الاصطناعي، مثل السلامة والشفافية والمساءلة والمسؤولية وتقليل التحيز. ويوضح كذلك خطوات التنفيذ الفعال، وتدقيق الأداء، والتدريب، والامتثال التنظيمي.
توفر هذه المعايير الدولية مرجعًا قيمًا للمؤسسات التي تتطلع إلى إنشاء ممارسات حوكمة مسؤولة للذكاء الاصطناعي تتوافق مع قانون الاتحاد الأوروبي للذكاء الاصطناعي واللوائح الأخرى ذات الصلة.
قائمة مرجعية لحوكمة الذكاء الاصطناعي لرؤساء المؤسسات والمديرين التنفيذيين(32).
يحتاج رؤساء المؤسسات والمدراء التنفيذيين إلى فهم آثار حوكمة الذكاء الاصطناعي على مؤسساتهم واتخاذ تدابير استباقية لضمان ممارسات مسؤولة وأخلاقية. يمكن أن تكون القائمة المرجعية التالية المكونة من 12 نقطة بمثابة نقطة انطلاق للمؤسسات التي تتطلع إلى تطوير إطار حوكمة الذكاء الاصطناعي الخاص بها:
- فهم استراتيجية الذكاء الاصطناعي للمؤسسة ومواءمتها مع استراتيجية العمل الأوسع.
- التأكد من أن المسؤولين عن مخاطر الذكاء الاصطناعي والأدوار والمسؤوليات ذات الصلة محددة بوضوح وأن هؤلاء الأفراد لديهم مجموعة المهارات والموارد المناسبة للقيام بهذه الأدوار بشكل صحيح.
- فهم ملف تعريف مخاطر الذكاء الاصطناعي للمؤسسة وتحديد أو الموافقة على التسامح مع مخاطر الذكاء الاصطناعي.
- التأكد من أن الذكاء الاصطناعي هو بند دوري في جدول أعمال مجلس إدارة المؤسسة، سواء كان في اجتماعات مجلس الإدارة بكامل هيئته أو اجتماعات لجنة المخاطر، وأن مجلس الإدارة لديه إمكانية الوصول الكافي إلى خبرات الذكاء الاصطناعي.
- فهم شرعية استخدام ونشر الذكاء الاصطناعي، بما في ذلك جمع واستخدام بيانات التدريب، عبر الأعمال.
- فهم كيف تضمن المؤسسة تحديد ومعالجة القضايا الأخلاقية المرتبطة باستخدام الذكاء الاصطناعي، وخاصة التحيز والتمييز.
- فهم كيفية تصنيف مخاطر أنظمة الذكاء الاصطناعي وحالات الاستخدام (أي معايير التصنيف وعملية التقييم)، والتي تم حظرها، ولماذا؟
- فهم أنظمة الذكاء الاصطناعي الحرجة وعالية المخاطر المستخدمة والمنتشرة في جميع أنحاء الأعمال وطبيعة ومصدر وموثوقية البيانات المستخدمة لتدريب الأنظمة عالية المخاطر.
- فهم المفاضلات في قرارات الذكاء الاصطناعي (على سبيل المثال، الدقة مقابل العدالة، وقابلية التفسير مقابل الخصوصية، والدقة مقابل الخصوصية، والدقة مقابل القدرة على التكيف).
- التأكد من وجود عمليات للإدارة لتصعيد وإحاطة مجلس الإدارة بأي حوادث تتعلق بالذكاء الاصطناعي، بما في ذلك استجابة أنظمة الذكاء الاصطناعي، وأي تأثيرات عليها، وحالة أي تحقيقات حولها، والتعلم الذي تم تحديده كجزء من مراجعة ما بعد الحوادث.
- التأكد من مراجعة الامتثال لبرنامج إدارة مخاطر الذكاء الاصطناعي عبر وظائف التدقيق.
- التأكد من أن مسؤول مخاطر الذكاء الاصطناعي يقوم بانتظام بمراجعة فعالية برنامج وسياسات إدارة مخاطر الذكاء الاصطناعي.
المراجع
- 12 Tentative Ideas for US AI Policy | Open Philanthropy.
- Towards Best Practices in AGI Safety and Governance | GovAI
- AI Governance Best Practices | Snowflake
- This Algorithm Could Ruin Your Life | WIRED
- Insight - Amazon scraps secret AI recruiting tool that showed bias against women | Reuters
- ANALYSIS: First AI Bias Settlement With EEOC Spotlights Pitfalls (bloomberglaw.com)
- AI Regulation Is Coming (hbr.org)
- AI Risk Management Framework | NIST
- OECD Framework for the Classification of AI systems | en | OECD
- National Artificial Intelligence Initiative (NAII) (uspto.gov)
- 2325 (IS) - Algorithmic Justice and Online Platform Transparency Act - Content Details - (govinfo.gov)
- FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence | The White House
- https://datainnovation.org/2023/11/the-airia-bill-would-force-the-commerce-department-to-bite-off-more-than-it-can-chew/
- Blueprint for an AI Bill of Rights | OSTP | The White House
- AI Training Act - Content Details - (govinfo.gov)
- National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf (whitehouse.gov)
- Proposed Memorandum for the Heads of Executive Departments and Agencies (whitehouse.gov)
- https://www.congress.gov/bill/118th-congress/senate-bill/2892/all-info
- https://www.congress.gov/bill/118th-congress/house-bill/4223
- https://www.congress.gov/bill/118th-congress/senate-bill/1671
- https://www.congress.gov/bill/118th-congress/senate-bill/1873?s=1&r=87
- C-27 (44-1) - LEGISinfo - Parliament of Canada
- EU AI Act: first regulation on artificial intelligence | Topics | European Parliament (europa.eu)
- General Data Protection Regulation (GDPR) – Legal Text (gdpr-info.eu)
- The EU’s Digital Services Act (europa.eu)
- The Digital Markets Act: ensuring fair and open digital markets - European Commission (europa.eu)
- https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper
- Five takeaways from UK’s AI safety summit at Bletchley Park | Artificial intelligence (AI) | The Guardian
- Lessons From the World’s Two Experiments in AI Governance - Carnegie Endowment for International Peace
- ISO/IEC 23894 – A new standard for risk management of AI - AI Standards Hub
- IEEE SA - AIS Standards
- https://www.modulos.ai/wp-content/uploads/2023/12/AI-Governance-Checklist-for-Directors-and-Executives.pdf