فوضى تنظيم الذكاء الاصطناعي... لماذا تفشل القوانين الصارمة؟

تنظيمه ليس مهمة تقليدية يمكن التعامل معها بالأدوات التشريعية المعتادة

AFP
AFP
خلال افتتاح مركز للذكاء الاصطناعي تابع لشركة "غوغل" في برلين

فوضى تنظيم الذكاء الاصطناعي... لماذا تفشل القوانين الصارمة؟

في السنوات الأخيرة، تحول الذكاء الاصطناعي من مجرد تقنية واعدة إلى قوة محورية تعيد تشكيل الاقتصاد والمجتمع والسياسة على مستوى العالم. ومع هذا التحول السريع، وجدت الحكومات نفسها أمام تحد غير مسبوق، فكيف يمكن تنظيم هذه التكنولوجيا المعقدة دون إعاقة تطورها أو التسبب في آثار جانبية غير متوقعة؟ الإجابة لم تكن سهلة، بل قادت إلى ما يمكن وصفه اليوم بـ"فوضى تنظيمية" تتسم بكثرة القوانين، وتضاربها، ومحدودية الفهم لطبيعة هذه الأنظمة.

لا يعكس المشهد المعقد رغبة الحكومات في حماية المجتمعات من مخاطر الذكاء الاصطناعي فقط، بل يكشف أيضا عن أزمة أعمق تتعلق بكيفية تصميم السياسات العامة في ظل نقص المعلومات وتسارع الابتكار. فبينما تتكاثر التشريعات، يتزايد القلق من أن هذه القوانين قد تخلق مشكلات أكثر مما تحل.

فتنظيم الذكاء الاصطناعي ليس مهمة تقليدية يمكن التعامل معها بالأدوات التشريعية المعتادة. فهذه التكنولوجيا تتطور بوتيرة تفوق بكثير سرعة إصدار القوانين، كما أن آلياتها الداخلية غالبا ما تكون غير شفافة حتى لمطوريها أنفسهم. وهذا يجعل أي محاولة لوضع قواعد ثابتة لها أشبه بمحاولة تثبيت هدف متحرك.

فالمشكلة الأساس أن القوانين تصاغ بناء على فهم لحظة معينة من تطور التكنولوجيا، لكن الذكاء الاصطناعي يتغير باستمرار، مما يجعل هذه القوانين عرضة للتقادم بسرعة. وبينما تسعى الحكومات إلى حماية المستخدمين وضمان العدالة والشفافية، فإنها تواجه واقعا معقدا يتطلب أدوات أكثر مرونة وابتكارا من مجرد التشريع التقليدي.

بيئة شديدة التعقيد

واحدة من أبرز سمات المشهد الحالي هي تعدد التشريعات وتضاربها، خصوصا في الدول ذات الأنظمة الفيديرالية مثل الولايات المتحدة. ففي ظل غياب إطار وطني موحد، سارعت الولايات إلى إصدار قوانين خاصة بها لتنظيم الذكاء الاصطناعي، مما أدى إلى نشوء شبكة معقدة من القواعد المتباينة.

وقد يكون نظام معين للذكاء الاصطناعي قانونيا في ولاية، لكنه يصبح مخالفا في ولاية أخرى. بعض الولايات تفرض تدقيقات إلزامية على الخوارزميات، بينما تمنع أخرى متطلبات مشابهة أو تضع شروطا مختلفة تماما. ولا يقتصر هذا التباين على التفاصيل، بل يمتد إلى تعريفات الذكاء الاصطناعي نفسه، ومعايير الشفافية، واختبارات التحيز، وقواعد الخصوصية.

نتيجة لذلك، تجد الشركات نفسها أمام بيئة قانونية شديدة التعقيد، خاصة إذا كانت تعمل عبر ولايات عدة أو دول. هذا الوضع لا يعيق الامتثال فقط، بل يخلق حالة من عدم اليقين تجعل اتخاذ القرارات الاستثمارية أكثر صعوبة.

يكمن أحد جذور المشكلة في الفجوة المعرفية بين صناع القرار والتطور التقني. فالجهات التنظيمية غالبا لا تمتلك الفهم العميق لكيفية عمل أنظمة الذكاء الاصطناعي، خاصة تلك المعتمدة على التعلم العميق والنماذج المعقدة

على سبيل المثل، فالمشهد التنظيمي الأميركي المؤثر في الذكاء الاصطناعي ليس محكوما بإطار واحد مستقر، بل هو خليط واسع من القواعد الفيديرالية والولائية، مع اختلافات في تعريف الذكاء الاصطناعي نفسه، وتباين في الفصل بين تنظيم التطوير وتنظيم النشر، وتعدد في المخاطر التي يراد ضبطها. لكن من منظور اقتصادي، المشكلة ليست فقط أن هذ المشهد معقد، بل أنه يرفع تكاليف الامتثال، ويزيد درجة عدم اليقين التنظيمي، ويضعف القدرة على التخطيط الطويل الأجل، ويجعل قرارات الاستثمار والتوسع أكثر حذرا، بل أحيانا أكثر انكماشا مما ينبغي.

AFP
تعرض روبوتات بشرية في منصة الاختبار التجريبي والتحقق للروبوتات التابعة لمركز بكين لابتكار الروبوتات البشرية

وقد زادت التحولات السياسية في واشنطن هذا الاضطراب تعقيدا. فإدارة الرئيس السابق جو بايدن كانت قد دفعت نحو تنظيم أكثر وضوحا في بعض الملفات من خلال الأمر التنفيذي 14110 الهادف إلى تعزيز تطوير واستخدام ذكاء اصطناعي آمن وموثوق به، لكن هذا الأمر ألغي لاحقا في عهد إدارة ترمب. في المقابل، لم تلغ الإدارة الجديدة الأمر التنفيذي 14141 المتعلق بتعزيز القيادة الأميركية في بنية الذكاء الاصطناعي التحتية. ومن المنظور الاقتصادي، فإن هذا التمييز مهم جدا، لأنه يشير إلى أن الدولة لا تتحرك بمنطق "التنظيم أو عدم التنظيم" على نحو مطلق، بل بمنطق انتقائي يخفف القيود في بعض المجالات التي يرى أنها قد تعيق الابتكار، ويحتفظ أو يعزز التدخل في مجالات أخرى يعتقد أنها تدعم القدرة التنافسية الوطنية. وهذا يكشف أن الدولة، حتى عندما تتحدث بلغة تنظيمية أو تحريرية، فإنها في العمق تتخذ قراراتها وفق حسابات تتعلق بالنمو، والاستثمار، والسبق التكنولوجي، والمكانة في الاقتصاد العالمي للذكاء الاصطناعي.

جذور المشكلة

يكمن أحد جذور المشكلة في الفجوة المعرفية بين صناع القرار والتطور التقني. فالجهات التنظيمية غالبا لا تمتلك الفهم العميق لكيفية عمل أنظمة الذكاء الاصطناعي، خاصة تلك المعتمدة على التعلم العميق والنماذج المعقدة التي تؤدي إلى صوغ قوانين قد تكون مبالغا فيها أو غير دقيقة، بل وأحيانا غير قابلة للتطبيق. فالمنظمون يحاولون ضبط سلوك الأنظمة دون القدرة على فهم جميع العوامل المؤثرة فيها، مثل التكاليف الفعلية، أو دوافع الشركات، أو طبيعة المخاطر الحقيقية.

وهذه المشكلة ليست جديدة، بل هي جزء من تحد أوسع في تصميم السياسات العامة، إذ تعاني الجهات التنظيمية دائما من نقص المعلومات، مقارنة بالأطراف التي تخضع للتنظيم. ورغم أن الهدف من التشريعات هو تقليل المخاطر، فإن القوانين المتشددة قد تؤدي إلى نتائج عكسية. فبدلا من تعزيز الأمان، قد تدفع الشركات إلى تقليل استخدام أنظمة فعالة أو حتى التخلي عنها بالكامل لتجنب المخاطر القانونية.

وفي بعض الحالات، اضطرت شركات إلى إعادة تصميم أنظمتها بشكل مختلف لكل ولاية، مما أدى إلى زيادة التكاليف وتعقيد العمليات. وفي حالات أخرى، فضلت شركات صغيرة ومتوسطة، الابتعاد عن استخدام الذكاء الاصطناعي تماما، لأنها لا تملك الموارد اللازمة للامتثال لمتطلبات متعددة ومتناقضة.

ولا يقتصر هذا التأثير على الشركات فقط، بل يمتد إلى الاقتصاد ككل، حيث يؤدي إلى تباطؤ الابتكار وتقليل القدرة التنافسية في مواجهة دول تعتمد سياسات أكثر اتساقا. فمن المفارقات أن التنظيم الصارم قد يقلل الشفافية بدل تعزيزها. فعندما تكون المسؤولية القانونية عالية، تميل الشركات إلى تقليل الإفصاح عن تفاصيل أنظمتها لتجنب المخاطر.

بدلا من الكشف عن كيفية عمل الخوارزميات أو توضيح الأخطاء المحتملة فيها أو حدود أدائها في البيئات المختلفة، قد تميل المؤسسات - خصوصا في ظل بيئة تنظيمية صارمة وغير متوقعة - إلى الاحتفاظ بالمعلومات الحساسة داخليا، ليس في الضرورة بدافع سوء النية، بل نتيجة حسابات عقلانية تتعلق بتقليل المخاطر القانونية والسمعة المؤسسية، إذ يصبح الإفصاح الكامل في بعض الحالات بمثابة سلاح ذي حدين قد يعرض الشركة للمساءلة أو سوء الفهم أو حتى الاستغلال التنافسي.

هذا النوع من التصميم لا يفرض الشفافية بالقوة، بل يجعلها خيارا عقلانيا من منظور اقتصادي. فالشركة، عند اتخاذ قرارها، ستوازن بين تكلفة الإفصاح وفوائده، وبين تكلفة الاحتفاظ بالمعلومات وما يترتب عليه من التزامات إضافية

نتيجة لذلك، تتشكل بيئة من "الصمت الاستراتيجي" حيث تفضل السرية على الشفافية، مما يؤدي إلى تقليص تدفق المعلومات الحيوية التي يحتاجها المنظمون لفهم طبيعة الأنظمة التي يحاولون تنظيمها، كما يضعف قدرة الباحثين المستقلين على تقييم الانحيازات أو العيوب المنهجية أو المخاطر النظامية الكامنة في هذه الخوارزميات، ويترك المستخدمين النهائيين - سواء كانوا أطباء أو مرضى أو مستهلكين - في حالة من عدم اليقين في شأن مدى موثوقية هذه الأنظمة وحدودها، وهو ما يخلق مفارقة تنظيمية خطيرة. فالقوانين التي تهدف إلى تعزيز الشفافية والمساءلة قد تؤدي عمليا إلى تقليصهما، لأن تصميمها لا يأخذ في الاعتبار الحوافز الحقيقية التي تواجهها الشركات، وبالتالي يتحول التنظيم من أداة لكشف المخاطر إلى عامل يدفع نحو إخفائها، مما يجعل عملية التقييم الخارجي شبه مستحيلة، ويبقي المخاطر الحقيقية كامنة تحت السطح إلى أن تظهر في شكل أزمات مفاجئة أو أخطاء جسيمة كان يمكن تفاديها لو كانت المعلومات متاحة بشكل أوسع وفي وقت مبكر.

نهج بديل

في مواجهة التعقيدات المتزايدة لتنظيم الذكاء الاصطناعي، يتزايد الإدراك بأن الاعتماد الحصري على العقوبات والرقابة الصارمة لا يمثل الحل الأكثر كفاءة أو فعالية. فهذه المقاربة التقليدية تفترض أن الجهات التنظيمية قادرة على تحديد جميع المخاطر المحتملة مسبقا، وصوغ قواعد دقيقة كفيلة بمنعها، وهو افتراض لا يصمد أمام واقع تكنولوجيا ديناميكية وسريعة التطور.

من هنا، يبرز نهج بديل أكثر واقعية يستند إلى الحوافز الاقتصادية، حيث لا ينظر إلى الشركات كجهات يجب ضبطها فقط، بل كأطراف يمكن توجيه سلوكها عبر تصميم بيئة تنظيمية تجعل الخيار الأفضل اقتصاديا هو نفسه الخيار الأكثر أمانا وشفافية.

AFP
تفاعل الزوار مع عرض ضوئي غامر مدعوم بالذكاء الاصطناعي في معرض المعلم الحديث والمسار نحو السعادة الاصطناعية

يقوم هذا النهج على فكرة تقديم مسارات تنظيمية متعددة بدل فرض نموذج واحد جامد على جميع الشركات، بحيث ترتبط درجة الالتزام والمتطلبات المفروضة بمستوى الشفافية الذي تختاره المؤسسة. بهذا الشكل، لا يجبر الجميع على المستوى نفسه من الإفصاح، بل يمنح كل طرف حرية الاختيار ضمن إطار واضح من الحوافز والتبعات. فعلى سبيل المثل، يمكن أن تحصل الشركات التي تقرر الكشف بشكل كامل عن كيفية عمل أنظمتها، وبيانات التدريب، وآليات إدارة المخاطر، على مزايا تنظيمية مثل تقليل متطلبات التدقيق، أو تسريع إجراءات الموافقة، أو تخفيف بعض أوجه المسؤولية القانونية. في المقابل، فإن الشركات التي تفضل الاحتفاظ بمعلوماتها وعدم الإفصاح عنها، ستواجه متطلبات أكثر صرامة، أو رقابة أكبر، أو مسؤولية قانونية أعلى عند وقوع أخطاء.

في ظل التطور السريع للتكنولوجيا، لا يمكن الاعتماد على قوانين جامدة، بل يجب أن تكون التشريعات مرنة وقابلة للتحديث بشكل مستمر

هذا النوع من التصميم لا يفرض الشفافية بالقوة، بل يجعلها خيارا عقلانيا من منظور اقتصادي. فالشركة، عند اتخاذ قرارها، ستوازن بين تكلفة الإفصاح وفوائده، وبين تكلفة الاحتفاظ بالمعلومات وما يترتب عليه من التزامات إضافية. وفي كثير من الحالات، سيؤدي هذا التوازن إلى اختيار الإفصاح الطوعي، ليس لأنه مفروض، بل لأنه أصبح المسار الأكثر جدوى. وهنا تكمن قوة الحوافز، فهي لا تحاول تغيير سلوك الشركات عبر الإكراه، بل عبر إعادة تشكيل بيئة القرار بحيث يصبح السلوك المرغوب هو الخيار الطبيعي.

ومن الناحية النظرية، يعالج هذا النهج واحدة من أهم مشكلات التنظيم، وهي نقص المعلومات لدى الجهات التنظيمية. فبدلا من محاولة جمع كل المعلومات بنفسها، وهو أمر مكلف وصعب وربما مستحيل، تقوم الدولة بتصميم آليات تدفع الشركات إلى الكشف عن هذه المعلومات بنفسها. وبهذا تتحول الشركات من أطراف تخضع للمراقبة إلى شركاء في إنتاج المعرفة التنظيمية. كما أن هذا الأسلوب يقلل ظاهرة "الامتثال الشكلي"، حيث تلتزم الشركات القواعد ظاهريا دون تغيير حقيقي في سلوكها، لأن الحوافز هنا ترتبط بالنتائج الفعلية ومستوى الإفصاح الحقيقي، وليس فقط بإعداد التقارير والوثائق.

التنازل عن الرقابة

لكن نجاح هذا النموذج يتطلب فهما دقيقا لكيفية تصميم الحوافز. فالحوافز غير المتوازنة قد تؤدي إلى نتائج عكسية، مثل الإفصاح الجزئي أو المضلل، أو استغلال الثغرات التنظيمية. لذلك يجب أن تكون القواعد واضحة، وأن تكون الفوائد والتكاليف المرتبطة بكل خيار محددة بشكل دقيق، وأن يكون هناك نظام موثوق به للتحقق من صحة المعلومات المقدمة. كما يتطلب الأمر بناء ثقة متبادلة بين القطاعين العام والخاص، بحيث تشعر الشركات بأن الإفصاح لن يستخدم ضدها بشكل تعسفي، بل كجزء من عملية تنظيمية تهدف إلى تحسين الفهم وإدارة المخاطر.

وبهذا، يصبح التعاون بين الجهات التنظيمية والشركات أمرا حتميا وليس مجرد خيار إضافي. فالجهات الحكومية، مهما بلغت قدراتها، لا تمتلك المعرفة التقنية التفصيلية التي لدى الشركات المطورة، خاصة في مجالات معقدة مثل التعلم العميق أو النماذج التوليدية. وفي المقابل، تمتلك الحكومات القدرة على وضع الأطر العامة، وتحديد المعايير، وضمان حماية المصلحة العامة. ومن خلال التعاون بين الطرفين، يمكن سد الفجوة المعرفية، وتطوير سياسات أكثر دقة وواقعية.

هذا التعاون لا يعني التنازل عن الدور الرقابي للدولة، بل إعادة تعريفه. فبدلا من أن تكون العلاقة قائمة على الشك والرقابة فقط، تصبح قائمة على تبادل المعلومات والمسؤولية المشتركة. ويمكن تحقيق ذلك من خلال آليات مثل اللجان المشتركة، أو برامج الاختبار التنظيمي، أو المبادرات الطوعية التي تشجع الشركات على مشاركة البيانات والخبرات. كما يمكن الجهات التنظيمية الاستفادة من الخبرات التقنية داخل القطاع الخاص لتطوير أدوات تقييم أفضل، ومعايير أكثر تطورا.

REUTERS
متظاهر يخاطب حشدا من المتظاهرين خارج مقر شركة "OpenAI" قبل التوجه بمسيرة إلى مكتب شركة "xAI"، داعيا إلى وقف تطوير الذكاء الاصطناعي

يعكس هذا التحول من العقوبات إلى الحوافز فهما أعمق لطبيعة الاقتصاد الرقمي. فالسوق لا تستجيب فقط للقواعد، بل للحوافز التي تخلقها هذه القواعد. وإذا كانت الحوافز مصممة بشكل جيد، فإنها يمكن أن تحقق أهداف التنظيم بكفاءة أعلى وبتكلفة أقل، مع الحفاظ على ديناميكية الابتكار. أما إذا كانت الحوافز مشوهة أو غير متوازنة، فإنها قد تدفع الأطراف إلى سلوكيات دفاعية أو غير شفافة، حتى لو كانت القوانين نفسها تبدو صارمة ومثالية على الورق. لذلك، فإن مستقبل تنظيم الذكاء الاصطناعي قد يعتمد بدرجة كبيرة على قدرة صانعي السياسات على الانتقال من التفكير في "ماذا يجب أن يحدث" إلى التفكير في "كيف نجعل ما نريده يحدث فعلا".

التكيف مع الواقع

والشراكة بين الطرفين يمكن أن تسهم في تطوير سياسات أكثر واقعية وفعالية، كما يمكن أن تساعد في تحديد المخاطر الحقيقية بدل التركيز على سيناريوهات افتراضية. وهذا التعاون يجب أن يقوم على الثقة المتبادلة، حيث تشعر الشركات بالأمان عند مشاركة المعلومات، وتتعهد الجهات التنظيمية باستخدام هذه المعلومات بشكل مسؤول.

في ظل التطور السريع للتكنولوجيا، لا يمكن الاعتماد على قوانين جامدة. بل يجب أن تكون التشريعات مرنة وقابلة للتحديث بشكل مستمر. هذا يتطلب تبني نماذج تنظيمية ديناميكية، مثل الأطر الإرشادية القابلة للتعديل، أو التجارب التنظيمية التي تسمح باختبار السياسات قبل تطبيقها بشكل واسع.

يحتاج العالم إلى نموذج تنظيم متوازن يجمع بين حماية المستخدمين وتشجيع الابتكار ويتجنب الإفراط في التشدد، كما يجب أن يبتعد عن التساهل المفرط

والمرونة لا تعني غياب القواعد، بل تعني القدرة على التكيف مع الواقع المتغير، وهو أمر أساس في مجال سريع التطور مثل الذكاء الاصطناعي. فأحد التحديات الأساس في تنظيم الذكاء الاصطناعي لا يكمن في تحديد الأهداف، فالجميع يتفق على أهمية السلامة والعدالة والشفافية. المشكلة الحقيقية تكمن في كيفية تحقيق هذه الأهداف في الواقع.

وهذا يتطلب الاعتراف بنقص المعلومات لدى الجهات التنظيمية، وتبني قدر من "التواضع المؤسسي"، حيث لا تفترض الحكومات أنها تفهم كل شيء، بل تسعى إلى التعلم المستمر والتكيف، كما يتطلب التركيز على النتائج الفعلية بدل الإجراءات الشكلية، بحيث يتم تقييم السياسات بناء على تأثيرها الحقيقي، وليس فقط على مدى الالتزام بها.

لذا، يحتاج العالم إلى نموذج تنظيم متوازن يجمع بين حماية المستخدمين وتشجيع الابتكار ويتجنب الإفراط في التشدد، كما يجب أن يبتعد عن التساهل المفرط، فالتجارب السابقة، مثل تنظيم الإنترنت في تسعينيات القرن الماضي، تظهر أن الأطر التنظيمية الخفيفة والمدروسة يمكن أن تدعم الابتكار دون التضحية بالأمان. وفي المقابل، فإن التنظيم المفرط قد يؤدي إلى نتائج عكسية.

اليوم، ومع تزايد المنافسة العالمية، تصبح الحاجة إلى سياسات واضحة ومتسقة أكثر إلحاحا. فبينما يسعى الاتحاد الأوروبي إلى تطوير إطار موحد، تعتمد دول أخرى على سياسات وطنية متماسكة، مما يمنحها ميزة تنافسية.

أما في البيئات التي تعاني من فوضى تنظيمية، فإن الشركات تضطر إلى إنفاق موارد كبيرة على الامتثال، بدل التركيز على الابتكار.

وفي تلك البيئات، تكون فوضى تنظيم الذكاء الاصطناعي ليست مجرد مشكلة قانونية، بل هي انعكاس لتحد أعمق يتعلق بكيفية إدارة التكنولوجيا في عصر يتسم بالتعقيد وعدم اليقين. فبينما تتكاثر القوانين، يظل الفهم محدودا، مما يؤدي إلى سياسات قد تعيق التقدم بدل دعمه.

وبهذا، لا يكمن الحل في المزيد من القوانين، بل في قوانين أفضل أكثر مرونة، وأكثر اعتمادا على الحوافز، وأكثر انفتاحا على التعاون. فتنظيم الذكاء الاصطناعي ليس سباقا لفرض السيطرة، بل هو عملية مستمرة لتحقيق التوازن بين المخاطر والفرص.

font change