ضبط التكنولوجيا:

أعلن البيت الأبيض عن مجموعة من القواعد والمبادئ التي تهدف إلى ريادة الولايات المتحدة في مجال تنظيم الذكاء الاصطناعي، وقد تضمَّنت تلك القواعد حماية خصوصية الأمريكيين، وترسيخ المساواة والحقوق المدنية، وحماية الابتكار، وتشجيع المنافسة؛ فقد أصدر الرئيس الأمريكي "جو بايدن" مرسوماً رئاسياً تنفيذياً يُلزم مطوري الذكاء الاصطناعي بإطلاع الحكومة على نتائج إجراءات السلامة؛ ما يضع الحكومة الأمريكية في قلب النقاش العالمي الدائر بشأن كيفية تنظيم الذكاء الاصطناعي؛ ولذا وصف البيت الأبيض تلك القواعد والمبادئ بأنها أهم إجراءات اتخذتها حكومة أمريكية لتعزيز السلامة في هذا المجال.


ملامح تنظيمية

يمكن الوقوف على أبرز ملامح السياسات التي أقرتها واشنطن مؤخراً لتنظيم الذكاء الاصطناعي من خلال النقاط التالية:


1– استصدار أمر تنفيذي جديد: أصدرت الولايات المتحدة إجراءات قوية لضمان السلامة في مجال الذكاء الاصطناعي، وهي الإجراءات التي تضمنت وضع معايير جديدة للسلامة تلتزم بموجبها الشركات بإطلاع الحكومة على نتائج اختباراتها، وحماية خصوصية المستهلك عن طريق وضع إرشادات تتبعها الوكالات لتقييم تقنيات الخصوصية المستخدمة في مختلف أنظمة الذكاء الاصطناعي، ومجابهة تحيز الخوارزميات، وتحديد الممارسات المفضلة عند استخدام الذكاء الاصطناعي في النظام القضائي على سبيل التحديد، ووضع برنامج لتقييم المخاطر المحتملة التي قد تنتج عن استخدامه في الرعاية الصحية، وتوفير مصادر تضمن استخدام العاملين في قطاع التعليم له بطريقة مسؤولة، والعمل مع الشركاء الدوليين على تطبيق معاييره حول العالم.


2– ضبط التطور المضطرد في صناعة الذكاء الاصطناعي: يمكن وصف السياسات الأمريكية المستحدثة لتنظيم الذكاء الاصطناعي بأنها لا تعدو كونها خطوة رائدة ‏ترسم مستقبل الذكاء الاصطناعي، لا سيما أنها تتضمن مجموعة من القواعد والمبادئ التي ترمي إلى تعزيز الريادة الأمريكية في هذا المجال من ناحية، وحماية خصوصية ‏الأمريكيين من ناحية ثانية، وترسيخ المساواة والحقوق المدنية من ناحية ثالثة، وحماية حقوق الابتكار والمنافسة من ناحية رابعة. ويمكن الدفع بأن تلك الأهداف، على اختلافها، قد تتحقَّق من خلال معايير ومتطلبات إضافية تُحفِّز الابتكار وتُعالِج المخاوف من التطور المضطرد للذكاء الاصطناعي؛ وذلك من بين سياسات أخرى.


3– فرض الرقابة على الشركات التكنولوجية: تتماشى السياسات الأمريكية مع قانون الإنتاج الدفاعي الذي يفرض على ‏الشركات التي تقوم بتطوير نموذج قد يشكل ‏خطراً على الأمن القومي أو الصحة العامة الوطنية ‏أو الأمن الاقتصادي؛ إخطار الحكومة ‏الفيدرالية، ومشاركة النتائج التي تتوصَّل إليها، وهو القانون الذي يمنح الحكومة الفيدرالية سلطة معينة لتقييد الشركات عندما يكون أمن البلاد على المحك، وهو ما يعني أن أنظمة ‏الذكاء الاصطناعي لشركات عملاقة على شاكلة "مايكروسوفت" و"جوجل" ‏و"أمازون" ستخضع لرقابة مجموعة من الإدارات الحكومية ‏لا للتنظيم الذاتي.


وبعبارة ثانية، فإن اختبارات ‏السلامة ستتضمَّن اختبارات يُجريها ‏المطورون لمعرفة تداعيات ‏المنتجات الجديدة على المستخدمين ‏والجمهور المستهدف؛ فإن لم ينجح أي منتج في تلبية معايير السلامة، فستقوم الحكومة الفيدرالية بإجبار الشركة المطورة إما على إجراء ‏تحسينات على المنتج وإما على التخلي عنه كلياً.‏ وبالفعل، وافقت شركات عدة مثل "أوبن إيه آي" و"ميتا" و"ديب مايند" على الإعلان عن بعض قواعدها الأمنية الخاصة بالذكاء الاصطناعي.


4– تفعيل واستحداث أطر مؤسسية منظمة: سيضع المعهد الوطني ‏للمعايير والتكنولوجيا معايير السلامة قبل ‏الإصدار العام لها، وستقوم وزارة الأمن الداخلي بتطبيق ‏تلك المعايير على قطاعات البنية التحتية الحيوية، بجانب إنشاء مجلس السلامة والأمن للذكاء الاصطناعي‎، كما ستعمل وزارة الطاقة مع وزارة الأمن ‏الوطني لمعالجة التهديدات التي تواجه البنية التحتية، ‏بالإضافة إلى المخاطر الكيميائية والبيولوجية وغير ذلك من مخاطر قد تتفاقم من جراء توظيف الذكاء ‏الاصطناعي‎ فيها؛ وذلك من خلال تقنين استخدام العلامات ‏المائية التي تنبه المستهلكين عندما يواجهون منتجاً ‏مدعوماً به، وهو ما قد يحد من ‏التهديد الذي يشكله المحتوى المحتال، مثل التزييف ‏العميق؛ هذا بجانب معالجة التمييز الخوارزمي؛ ‏حتى تتمكن وزارة العدل ومكاتب الحقوق المدنية ‏الفيدرالية من التحقيق ‏في انتهاكات الحقوق المدنية ذات الصلة بالذكاء ‏الاصطناعي على أفضل وجه‎.


‎5– دفع مسار التعاون الدولي: وقَّعت الولايات المتحدة والصين والاتحاد الأوروبي ونحو عشرين دولة في بريطانيا "إعلان بلتشلي" من أجل تطوير آمن للذكاء الاصطناعي؛ وذلك خلال القمة الدولية الأولى حول التطور السريع لتلك التكنولوجيا. وقد اتفق الاتحاد الأوروبي و28 دولة اجتمع ممثلون عنها في بلتشلي بارك (شمال العاصمة البريطانية لندن) على الحاجة الملحة إلى فهم وإدارة المخاطر المحتملة للذكاء الاصطناعي بشكل جماعي من خلال جهد عالمي جديد لضمان تطويره ونشره بطريقة آمنة ومسؤولة، وهو ما يسهم في احتواء المخاوف المتزايدة بشأن آفاق التطور غير المحدود لأنظمته؛ فقد أقر إعلان بلتشلي بالمخاطر الكامنة المرتبطة بتقنيات الذكاء الاصطناعي السريعة التطور، في خطوة تعترف بالحاجة إلى التعاون العالمي لمجابهة ما قد ينجم عنه من تحديات.


دلالات بارزة

تثير السياسات الأمريكية السالفة جملة من الدلالات التي يمكن الوقوف على أبرزها على النحو التالي:


1– تعدد المعوقات التشريعية: لا شك في ضرورة إقرار الكونجرس الأمريكي أي تشريع ينظم استخدامات الذكاء الاصطناعي. وقد دفعت بعض التحليلات بأن انقسام الكونجرس بين الديمقراطيين والجمهوريين يجعل من الصعوبة بمكان اعتماد أي قانون في هذا المجال. وفي الوقت نفسه، تتعدد المطالبات بضرورة تحرك الكونجرس لسن تشريعات تحمي الخصوصية، بالنظر إلى فقر الضوابط والتشريعات الأمريكية الموجودة بالفعل. وهو ما يعني أن الجهود التي تبذلها واشنطن في هذا المجال غير كافية إلى حد كبير على الرغم من تعدد المخاطر التي يفرضها الذكاء الاصطناعي.


2– تعزيز الريادة الأمريكية التكنولوجية: تسعى الولايات المتحدة إلى تضييق الفجوة بينها وبين الصين في مجال تنظيم الذكاء الاصطناعي؛ فقد أصدرت الصين في يوليو 2023 إرشاداتها الرسمية لخدمات الذكاء الاصطناعي التوليدي، لتصبح بذلك واحدة من أوائل الدول التي تقننه بعد أن وضعت إدارة الفضاء الإلكتروني في الصين (CAC) قواعدَ ملزمة تلزم مقدمي خدمات الذكاء الاصطناعي بإجراء مراجعات أمنية، وتسجيل خوارزمياتهم لدى الجهات الرسمية.


وفي ظل السبق الصيني، تمثل السياسات الأمريكية السالفة الإشارة إليها، اختباراً مهماً للإدارة الأمريكية التي تكافح من أجل الوفاء بوعودها الرامية إلى صياغة ‏قواعد تحمي شركات وادي السيليكون دون أن تقوض ابتكارها، وإن دفعت صحيفة "واشنطن بوست" بأن هناك حدوداً ‏قصوى لما يمكن أن تحققه إدارة "بايدن" دون قانون ‏ملزم ينظم الذكاء ‏الاصطناعي رغم طول الأمد الذي استغرقه الكونجرس في محاولات عدة من جانبه لصياغة قواعد حول الخصوصية والسلامة ‏عبر الإنترنت والتقنيات الناشئة.


3– احتدام السباق الدولي في مجال تنظيم الذكاء الاصطناعي: يحتدم التنافس العالمي في مجالي تطوير وتنظيم استخدامات الذكاء الاصطناعي على الرغم من وجود اختلافات حقيقية بين الصين والولايات المتحدة والاتحاد الأوروبي على صعيد نهج وآليات ذلك التنظيم. وفي ظل تلك الاختلافات، تتعدد المخاوف من أن غياب الإجماع العالمي بشأن قواعد الذكاء الاصطناعي قد يسفر عن هيمنة دولة أو كتلة واحدة على تطوير الذكاء الاصطناعي وتنظيمه في وقت تتزايد فيه المخاوف من تطوراته المتسارعة؛ فقد يُستخدَم لتطوير أسلحة بيولوجية أكثر فتكاً، أو لشن هجمات سيبرانية أكثر تطوراً وقدرةً على شل المؤسسات المستهدفة. ومع تنامي تلك التهديدات، ترغب الولايات المتحدة في ترسيخ ريادتها هي وشركاتها التكنولوجية الكبرى في هذا المجال.


4– التطور المضطرد في الذكاء الاصطناعي: من المتوقع أن تشهد السنوات القليلة المقبلة تطورات تكنولوجية مضطردة في ظل قدرة الذكاء الرقمي الخارق على تجاوز ذكاء البشر، وعدم إلمام صانعي القرار بالتطورات التكنولوجية وأبعادها وتطوراتها، وهو ما يعني أن صعود الذكاء الاصطناعي ينطوي على خطر انقراض البشرية، ويشكل مخاطرَ جسيمة على المجتمع والإنسانية، لا سيما مع قدرته على تحليل بيانات ضخمة يصعب على العقل البشري معالجتها. وعلى تعدد تلك المخاوف من ناحية، واحتدام المنافسة الدولية من ناحية ثانية، تقف مختلف القوى الدولية في مراحل متباينة على صعيد القواعد والأطر المقننة له وسط خلافات جذرية فيما بينها على أفضل السبل التي تكفل ذلك.


5– مساعٍ لتعزيز الشفافية في مجال الذكاء الاصطناعي: شغلت قضية تقييم تطبيقات الذكاء الاصطناعي، وقياس مدى شفافية الشركات العاملة في المجال، اهتمام الكثير من الحكومات، بما فيها الحكومة الأمريكية، وكذلك القطاع الخاص والمؤسسات الأكاديمية، وكان آخر محاولات التقييم تلك التي أعلن عنها باحثون من جامعة ستانفورد تحت مشروع اسمه "مؤشر شفافية نموذج الأساس" (Foundation Model Transparency Index) الذي يُصنِّف – بحسب تقرير لصحيفة الشرق الأوسط – 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي بناءً على درجة شفافيتها. وقد وصف بيرسي ليانج مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف بـ"الاستجابة الضرورية للشفافية المتردِّية في صناعة الذكاء الاصطناعي"، وأضاف أن "تدفُّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسرية التامة".


ختاماً، على تعدد الجهود الأمريكية الرامية إلى تنظيم الذكاء الاصطناعي عالمياً، فإنها لا تتقدم بالسرعة التي تتطور بها مختلف تقنيات الذكاء الاصطناعي، وقد أتت متأخرة نسبياً بالمقارنة بالجهود الصينية والأوروبية، في خضم سباق محتدم تتسابق فيه مختلف القوى الدولية على تطوير تقنياته على اختلافها بميزانيات تُقدَّر بمليارات الدولارات؛ وذلك في ظل اختلاف الدول والخبراء التقنيين حول مضمون القواعد واللوائح المقننة للذكاء الاصطناعي؛ ليظل دعم الابتكار من ناحية والحد من مخاطر الذكاء الاصطناعي من ناحية ثانية طرفَين في معادلة تنظيم الذكاء الاصطناعي رغم صعوبة تحقيق التوازن بين كليهما.