القانون أفضل من يتصدى لديكتاتوريات الخوارزميات

ثلاثة اتجاهات عالمية لتنظيم الذكاء الاصطناعي أميركية وأوروبية وصينية وتقدم عربي سعودي امارتي

ناش ويراسكيرا
ناش ويراسكيرا

القانون أفضل من يتصدى لديكتاتوريات الخوارزميات

تساءل البروفيسور في الرياضيات ألان تورينغ عام 1950 في مقال بعنوان "الحواسيب والآلة والذكاء" عن إمكان تجهيز الآلة في يوم من الأيام بالقدرة على التفكير؟

بعد ذلك بخمس سنوات، أطلق أستاذ آخر في الرياضيات، هو جون مكارثي، وللمرة الأولى، تعبير "الذكاء الاصطناعي" في ورشة عمل متخصصة من دون تحديد واضح لمضمونه. وبعدها تتالت التعريفات العديدة والمتنوعة، آخرها وأهمها، التعريف الذي اعتمده البرلمان الأوروبي مؤخرا بتاريخ 14 يونيو/حزيران 2023، والذي حدد فيه الذكاء الاصطناعي بأنه "نظام آلي مصمم للعمل على مستويات مختلفة من الاستقلالية ويمكنه، لأهداف صريحة أو ضمنية، توليد نتائج مثل التنبؤات أو التوصيات أو القرارات التي تؤثر على البيئات المادية أو الافتراضية".

هناك ثلاثة اتجاهات عالمية أميركية وأوروبية وصينية لتنظيم الذكاء الاصطناعي، يختلف توجه الاتحاد الاوروبي في إرساء قواعده عن النموذج الاميركي المتساهل والذي تحركه الاسواق والشركات، وعن النموذج الصيني الذي تقوده الدولة لتعزيز المراقبة والبروباغندا لتدعيم سيطرة الحزب الحاكم

سريعا ما كشف التطور السريع في الذكاء الاصطناعي عن أخطار جسيمة مواكبة له تتدرج من وسائل الدفع إلى تقليل عدد الوظائف في المؤسسات التي تعتمده إلى هتك البيانات الخاصة والتزييف العميق (Deepfake) وتهديد الديموقراطية والتعرض للحياة الخاصة والأمن وحقوق الإنسان وغيره، على حد قول مفوضة الأمم المتحدة السامية ميشيل باشيليت. وقد تنتهي بالتهديد بالانقضاض على البشرية وإفنائها بأسلحة فتاكة تعمل ذاتيا.

وقد أشار الفيزيائي الشهير ستيفن هوكينغ في هذا الخصوص إلى أن "تطوير ذكاء اصطناعي كامل يمكن أن يضع حدا للبشرية". أيده في ذلك سام ألتمان، مبتكر برنامج "تشات جي. بي. تي." الذي دعا إلى "وضع إطار تنظيمي عالمي على غرار اللوائح النووية أو لوائح التكنولوجيا الحيوية"، وأيضا عدد من الاختصاصيين الذين رفعوا إلى الأمين العام للأمم المتحدة أنطونيو غوتيريش اقتراحا بإنشاء "هيئة رقابة دولية للذكاء الاصطناعي" على غرار الوكالة الدولية للطاقة الذرية. وكان مجلس الأمن قد أجرى في 17 يوليو/ تموز المنصرم أول نقاش حول ملف الذكاء الاصطناعي وتأثيره على السلام والأمن.

كذلك حذر رجل الأعمال إيلون ماسك من التطور الجنوني في الذكاء الاصطناعي مع انتشار برنامج "تشات جي. بي. تي." وبلوغه مرحلة يستطيع فيها وضع برامجه الخاصة، دون حاجة للإنسان، بما فيها برامج شن الحرب على البشرية، مشابها في ذلك أحداث الفيلم الشهير "ترمينايتر"، حيث تجري أحداث الفيلم عام 2029.

وقد شاركت شخصيات عالمية بتوقيع رسائل مفتوحة نشرتها منظمة "فيوتشر أوف لايف" (Future of Life)، حذرت فيها من الدور الخطير والمتزايد للأنظمة والأسلحة والروبوتات العسكرية ذاتية التشغيل، العاملة على الذكاء الاصطناعي، مطالبين المسؤولين بالامتناع عن تطوير أو تصنيع أو الاتجار أو استخدام هذه الأنظمة والأسلحة، وبانضمام دولهم إلى مجموعة الدول التي صوتت لهذا التوجه في الأمم المتحدة. وشددوا على أن تكون مكافحة الأخطار المتعلقة بالذكاء الاصطناعي "أولوية عالمية كسواها من الأخطار الأخرى على مستوى المجتمع، كالأوبئة والحروب النووية".

وكان الرئيس الروسي فلاديمير بوتين قد صرح في 1 سبتمبر/أيلول 2017 أمام عدد من طلاب بلاده بأن "من يتفوق في الذكاء الاصطناعي سيحكم العالم". ولاحقا في مارس/آذار 2018، كشف عن بناء غواصة نووية تعمل كليا على الذكاء الاصطناعي، وكان سبق له أن أعلن عام 2011 عن اعتماد بلاده نظام"Perimetr 15E601" القادر على الرد نوويا فور اكتشاف إطلاق قنبلة ذرية من أي منطقة في العالم. وقد نقلت قناة "فرانس 24" الخبرين الأخيرين في مقال عنونته كالتالي: "الردع النووي: من القنبلة الذرية إلى القنبلة الذكية" (Dissuasion nucléaire:de la bombe A à la bombe IA).

قواعد التنظيم والتشريعات

على نقيض النظرة التشاؤمية، يقدم الذكاء الاصطناعي بشكل مستمر ومضطرد الكثير من الخدمات للبشرية أفرادا ومؤسسات في كل مجالات الحياة مثل التعلم والتعليم والصحة والبيئة والأمن والنقل والمحاماة والقضاء والعمل المالي والمصرفي والصحافي والخدمات العامة وغيرها.

بالنسبة لقواعد تنظيم الذكاء الاصطناعي ميّزت أنو برادفورد، أستاذة القانون في جامعة "كـــــــولومبيا" في كتابها المعنون "المعركة العــــــالمية لتنظيــــــم إمبــــــراطــــــوريـــــــات التكنــــــــولوجيا الرقـــــــميــــة" (Digital Empires:The Global Battle to Regulate Technology) بين ثلاثة اتجاهات عالمية: 

الأول، تعتمده الولايات المتحدة وتحركه السوق، بالتركيز على الابتكار والتفوق الاقتصادي، أما وضع قواعد التنظيم للذكاء الاصطناعي فهو أمر ثانوي أو إجراء استدراكي متأخر، كما حصل بإصدار البيت الأبيض "مخطط قانون حقوق الذكاء الاصطناعي" (Blueprint for an AI Bill of Rights) في أكتوبر/تشرين الأول 2022.

والثاني، تعتمده الصين ويقوم على استخدام الذكاء الاصطناعي لتعزيز المراقبة والبروباغندا لتدعيم سيطرة الحزب الشيوعي. وقد أدى اكتشاف الذكاء الاصطناعي التوليدي (Generative AI) إلى ظهور تحد جديد وجدي يصعب التكهن بإمكانية ومدى الصمود أمامه، ما دفع الحكومة الصينية إلى إعداد مشاريع قوانين لتنظيم الذكاء التوليدي، تحمّل المطورين المسؤولية عن المحتوى الذي ينحرف عن قيم الحزب الشيوعي.

تتبوأ دول الخليج الصدارة بعد اسرائيل في مؤشر جاهزية الحكومات للذكاء الاصطناعي لعام 2022


أما الثالث، فيخطط له الاتحاد الأوروبي ويختلف عن النموذج الأميركي المتساهل الذي تحركه الأسواق وعن النموذج الصيني المقيد الذي تقوده الدولة؛ إذ يركز على تعزيز الابتكار مع حماية حقوق المستخدمين والمواطنين من الاحتمالات الضارة والهدامة لتطورات الذكاء الاصطناعي بضبط نشاط شركات التكنولوجيا وإخضاعه للقانون. ويشكل النهج الأوروبي ولوائحه وتنظيماته وقوانينه مصدر جذب متزايد للحكومات. ومنهم من يرى أن "نهج بروكسل" سيقود إلى عولمة المعايير الأوروبية المنظمة للذكاء الاصطناعي كما النشاط الرقمي. من أهم التنظيمات القانونية التي يعتمدها النهج الأوروبي راهنا: النظام الأوروبي العام لحماية البيانات وتحويلها للخارج، وقانون الخدمات والأسواق الرقمية (Législations sur les services et les marchés numériques)، وأخيرا التعديلات المتنوعة التي تم التوافق عليها في 14 يونيو/حزيران المنصرم في البرلمان الأوروبي. وهي تعديلات رمت إلى ترسيخ فكرة مركزية هي ضمان بقاء أنظمة الذكاء الاصطناعي تحت سيطرة الإنسان وأن تكون آمنة وشفافة ويمكن تتبعها وغير تمييزية وتتضمن تصنيفا دقيقا للمحظورات والتزامات الموردين والمستخدمين.  

وقد حددت التعديلات المذكورة أربعة مستويات من الأخطار للموردين والمستخدمين: الحد الأدنى من الأخطار أو صفر، الأخطار المحدودة، الأخطار العالية التي وسعت لتشمل الضرر الذي يلحق بالصحة والسلامة والحقوق الأساسية والبيئة، والأخطار غير المقبولة على السلامة الشخصية وهي ممنوعة منعا باتا. وكان هناك اقتراح بإنشاء هيئة مسؤولة عن مكافحة انتشار أنظمة الذكاء الاصطناعي شديدة الخطورة.

المسؤولية المدنية لاستخدام الذكاء الاصطناعي

كان الأوروبيون قد اعتمدوا في عام 2020 نظاما قانونيا للمسؤولية المدنية الناجمة من استخدام الذكاء الاصطناعي لمعالجة الآثار القانونية المتأتية من التعقيد التقني لأنظمته، وتعدد الجهات المعنية بتشغيلها، وإمكان تسلل الغرباء إليها واختراقها، وكذلك صعوبة تتبع المساهمات في الضرر الحاصل بفعلها، وقدرتها على التعلم الذاتي باستقلالية، وأهمية جمع البيانات وتخزينها ومشاركتها واستخدامها بشكل سليم وآمن، وعدم إمكانية إضفاء الشخصية القانونية على أنظمة الذكاء الاصطناعي لتحميلها المسؤولية، وغير ذلك من أمور، تمثل كلها تحديات كبيرة تتطلب وضع أطر قانونية خاصة بالمسؤولية القانونية المتأتية عن استخدام أجهزة وأنظمة وتطبيقات الذكاء الاصطناعي.

والغاية الأساسية من ذلك، تمكين الأشخاص الذين تضرروا في أنفسهم أو في ممتلكاتهم من أدوات الذكاء الاصطناعي من الحصول على التعويض المناسب، على أن يتم الأمر ضمن توازن يحقق الحماية للمواطنين من جهة، ويشجع الشركات من ناحية أخرى على الاستثمار في الابتكار في مجال الذكاء الاصطناعي.

والحل الذي اعتمدته المجموعة الأوروبية، هو تحميل المسؤولية المدنية لجميع مشغلي أنظمة الذكاء الاصطناعي عالية الأخطار، في جميع مراحل إنتاج واستعمال والتحكم بأدوات وأنظمة الذكاء الاصطناعي، وهؤلاء هم:

 المسؤولون عن سلامة المنتج، ويشمل المصنعين والــمـــــــطــــــــوريــــــن والـمـــــــبـــــــرمجيــــــــــن ومـــــقــــــدمي الــــــخـــــدمــــــات ومشغلي المنبع.

 المسؤولون عن التشغيل الأمامي وهؤلاء هم عموما أول نقطة اتصال مرئية للطرف المتضرر.

 أطراف خارجية تسللت إلى النظام وتصرفت من خلاله بأعمال ألحقت الضرر بالمعنيين به.

بالنسبة إلى أدوات الذكاء الاصطناعي عالية الأخطار، والتي تنفذ عمليات عدة باستقلالية ذاتية، يرتكز المبدأ على أن تكون المسؤولية صارمة عن الأضرار الناجمة عن نشاطاتها، ولا يمكن لمشغليها إعفاء أنفسهم من المسؤولية ادعاء منهم بأنهم تصرفوا بالعناية المطلوبة، إلا إذا كانت الأضرار ناجمة عن حالة القوة القاهرة. وعلى مشغلي الواجهة الأمامية لهذه الأدوات أن يضمنوا أن يكون تشغيلها مشمولا بتأمين إجباري مجزٍ ضد الأخطار.

المسؤولية الجزائية

تتضمن قرارات المجموعة الأوروبية عددا من التوصيات في إطار المسؤولية الجزائية أهمها ضرورة التالي:

 اعتماد الشرطة والسلطات القضائية تطبيقات تستخدم بطريقة قانونية وعادلة وشفافة ولأغراض محددة وصريحة ومشروعة من دون إفراط ولا يحتفظ بها لفترة أطول من اللازم. 

 وجود رقابة ديموقراطية صارمة على أي تكنولوجيا قائمة على الذكاء الاصطناعي تستخدمها السلطات المولجة بإنفاذ القانون، والسلطات القضائية، وحظر استخدام التطبيقات التي لا تحترم مبادئ الضرورة والتناسب وحق الدفاع المشروع.

 ترتيب المسؤولية الجزائية في نهاية المطاف على عاتق شخص طبيعي أو اعتباري ذي دور أساسي في حصول الضرر من استخدام الذكاء الاصطناعي.

ضمان الشفافية الاستباقية الكاملة بشأن الشركات الموردة لأنظمة الذكاء الاصطناعي لأغراض إنفاذ القانون والأغراض القضائية، ومنها اعتماد إجراءات المشتريات العامة المناسبة لأنظمة الذكاء الاصطناعي وإجراء تقييمات دورية على التطبيقات المتعلقة بالحقوق الأساسية للمواطنين بمشاركة المجتمع المدني.

تضمنت استراتيجية الإمارات العربية المتحدة، التي أطلقت ضمن ﻣﺌﻮﻳﺔ اﻹﻣﺎرات 2071، إنشاء وزارة للذكاء الاصطناعي وأيضا تأسيس مجلس يضم من نخبة ﻣـﻦ اﻟﺒـﺎﺣﺜﻴﻦ والمبتكرين 

واضح مما سبق أن القانون في الاتحاد الأوروبي يتبوأ موقعا مميزا في العلاقة مع الذكاء الاصطناعي. فهو الوحيد الذي أثبت أنه مؤهل للوقوف والتصدي بفاعلية للديكتاتورية الصاعدة للخوارزميات، بحسب تعبير بوريس بارود المتخصص في الأمور القانونية التي تثيرها معالجة قواعد البيانات، وذلك سندا لقاعدة "مونتسكيو" الذهبية القائلة بضرورة أن يواجه سوء استخدام أي سلطة بسلطة مقابلة تمنع الانحرافات!

القوانين في الشرق الأوسط

فـــــي منـــطـــــــــقــــــة الـــــــشـــــــــــــرق الأوســــــط، يــــشــــــــير مـــــؤشـــــــــــــــــر جاهزية الحكومة للذكاء الاصطناعي لعام 2022 (Government AI Readiness Index 2022) الذي طورته مؤسسة "أوكسفورد إنسايتس" إلى تبوؤ دول الخليج الصدارة بعد إسرائيل (70,12)، ثم الإمارات (68,54)، قطر (62,37)، السعودية (61,96)، ثم عمان (57,83)، البـــــــــحرين (53,59)، الأردن (51,76)، مصر (49,42)، الكـــــــــــويت (47,68)، تونس (46,81)، لبــنان (45,72)، ثــــــم إيران (45,30).

مرد هذا التقدم في المؤشر، رغبة الحكومات والقطاعات الخاصة في دول الخليج باعتماد الذكاء الاصطناعي، بنسب متفاوتة، لتحفيز الاقتصاد وتنويعه لتقليل الاعتماد على النفط ولحاجات أمنية وخدماتية عامة وخاصة. وقد وضعت لذلك استراتيجيات متمايزة للذكاء الاصطناعي من دون صياغة تشريعات محددة تضبط مسؤولية مخاطره وكذلك استخدامه بطريقة قانونية وأخلاقية.

وقد تضمنت استراتيجية الإمارات العربية المتحدة، التي أطلقت ضمن ﻣﺌﻮﻳﺔ اﻹﻣﺎرات 2071، إنشاء وزارة للذكاء الاصطناعي وأيضا تأسيس مجلس للذكاء الاصطناعي من نخبة ﻣـﻦ اﻟﺒـﺎﺣﺜﻴﻦ والمبتكرين من أفضل الجامعات والمؤسسات العالمية في هذا المجال، ليقوم بإجراء مراجعة للمنهجيات الوطنية المتعلقة بمسائل كالأمن الإلكتروني وإدارة البيانات والأخلاقيات. وحتى الآن لا توجد قواعد قانونية خاصة بحوكمة الذكاء الاصطناعي في الإمارات بل مبادئ توجيهية كالإرشادات الأخلاقية لاستخدامه في إمارة دبي، إلى جانب أحكام متفرقة وردت في كثير من القوانين مثل أحكام حماية الخصوصية والبيانات الشخصية وقانون حماية المستهلك،وقانون المعاملات المدنية وقانون العقوبات وغيرها من القوانين.

نحت المملكة العربية السعودية في استراتيجيتها نحو تأسيس الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" لتكون مسؤولة عن وضع التشريعات. فتم وضع "نظام حماية البيانات الشخصية" الذي تضمن في مواده الأولى أن تطبيقه لا يخل بما للهيئة الوطنية للأمن السيبراني من اختصاصات ومهمات بوصفها جهة أمنية مختصة بالأمن السيبراني. وتخطط المملكة لاستخدام الذكاء الاصطناعي في القطاع العام، وتحديدا في مجال المدن الذكية كمدينة "نيوم" التي ستتضمن الكثير من الخدمات العاملة بالذكاء الاصطناعي أُعدّت برامجها بالتعاون مع شركة "هواوي".

وقد تعززت جهود الإمارات للارتقاء في مجال الذكاء الاصطناعي من خلال إنشاء أول مدينة ذﻛﻴﺔ متكاملة، "سيليكون ﺑﺎرك" بتكلفة 300 ﻣﻠﻴـﻮن دوﻻر، لإتمام اﻟﺘﺤﻮل الذكي ﻟﻠﺨدمات الحكومية، كما ومن خلال اتفاق شركة "سنس تايم" الرائدة عالميا في مجال الذكاء الاصطناعي ومكتب أبو ظبي للاستثمار على إنشاء مركز في أبوظبي لبحث وتطوير قدرات الذكاء الاصطناعي في سبع صناعات مختلفة، تغطي منطقة أوروبا والشرق الأوسط وأفريقيا، مما يساهم في تنويع الاقتصاد الوطني وجعله أكثر تنافسية ويوفر بيئة مزدهرة للمواهب في الوظائف التقنية المتنوعة.

وعلى نهج السعودية، تركز قطر على أمن البيانات في موضوع الذكاء الاصطناعي، ويظهر ذلك من القانون رقم 13 الخاص بحماية خصوصية البيانات الشخصية، إذ يتناول حقوق الأفراد والتزامات المراقب والمعالج وحكم البيانات ذات الطبيعة الخاصة، وأيضا الاتصالات الإلكترونية لغرض التسويق المباشر وعقوبات المخالفات  لأحكام القانون. وقد تم الاعتماد على الذكاء الاصطناعي بنجاح في عمليات التنظيم والمراقبة خلال مباريات بطولة كأس العالم لكرة القدم العام المنصرم.

أخيرا، لا يوجد في سلطنة عمان تشريعات متكاملة بعد، وهي تعتمد مبادئ توجيهية خاصة باستخدام الذكاء الاصطناعي في القطاع العام، وتتضمن ستة مبادئ رئيسة، هي: الشمولية، والمراعاة، والمساءلة، والإنصاف، والشفافية، والأمن. وتُطوِّر عُمان حاليا مدينتها الذكية الأولى، مدينة "العرفان" على أن تنتقل لاحقا لتحويل مناطق أخرى إلى مناطق ذكية، كمنطقة الدقم ورأس الحمراء في مسقط.

font change

مقالات ذات صلة