"أنثروبيك"... شركة ذكاء اصطناعي حظرها ترمب واستخدمها جيشه ضد إيران

شركة في مواجهة البنتاغون... من يضع "الخطوط الحمراء"؟

Al Majalla
Al Majalla

"أنثروبيك"... شركة ذكاء اصطناعي حظرها ترمب واستخدمها جيشه ضد إيران

خلال ساعات من إعلان أن الحكومة الفيدرالية الأميركية ستنهي استخدام أدوات الذكاء الاصطناعي التي تصنعها شركة التكنولوجيا "أنثروبيك"، أطلق الرئيس دونالد ترمب هجوما جويا كبيرا في إيران بمساعدة تلك الأدوات نفسها.

وتستخدم قيادات عسكرية حول العالم، بما في ذلك القيادة المركزية الأميركية في الشرق الأوسط، أداة الذكاء الاصطناعي "كلود" التابعة لشركة "أنثروبيك". واستخدمت الأداة في تقييمات الاستخبارات، وتحديد الأهداف، ومحاكاة سيناريوهات المعارك.

وكانت الإدارة الأميركية وشركة "أنثروبيك" في خلاف منذ أشهر بشأن كيفية استخدام نماذج الذكاء الاصطناعي الخاصة بها من قبل وزارة الحرب الأميركية (البنتاغون)

وأمر ترمب يوم الجمعة الوكالات بوقف التعامل مع الشركة، كما صنّفت وزارة الدفاع الشركة على أنها تهديد أمني ومصدر خطر على سلسلة التوريد الخاصة بها. وجاء ذلك بعد أن رفضت الشركة السماح للبنتاغون باستخدام أدواتها في جميع السيناريوهات القانونية خلال مفاوضات العقد بين الطرفين.

ومع تدهور العلاقة بين"أنثروبيك" والبنتاغون، أبرمت وزارة الحرب الأميركية اتفاقيات لاستخدام نماذج منافسة، من بينها "تشات جي بي تي" التابعة لشركة "أوبن إيه آي"، و"إكس إيه آي" التابعة لإيلون ماسك، في بيئات سرية. وقال خبراء في الذكاء الاصطناعي إن استبدال "كلود" بهذه النماذج الأخرى سيستغرق عدة أشهر.

"لا يمكننا، وفقا لما يمليه علينا ضميرنا، الامتثال لطلبهم." بهذه العبارة القاطعة أعلنت شركة "أنثروبيك" رفضها الانصياع لطلب وزارة الحرب الأميركية (البنتاغون)، لتنتقل الأزمة من مرحلة المهلة والضغوط إلى مواجهة مباشرة بين واحدة من أبرز شركات الذكاء الاصطناعي في العالم وأقوى مؤسسة عسكرية على وجه الأرض. لم يكن التصريح مجرد رد رسمي عابر، بل إعلان موقف يجسد الهوية التي شيدت عليها الشركة سمعتها: فهي لا تكتفي بتطوير نماذج أكثر قوة، بل تحرص على أن تظل هذه القوة ضمن حدود تراها ضرورية لحماية الإنسان، حتى إن جاء الضغط من الدولة نفسها.

على مدى سنوات، قدمت "أنثروبيك" نفسها بوصفها الصوت الأخلاقي داخل صناعة الذكاء الاصطناعي، مؤكدة أن نموذجها "كلود" صمم ليبقى خاضعا للسيطرة البشرية وملتزما بأعلى معايير الأمان. غير أن هذا الالتزام وجد نفسه أمام أصعب اختبار، بعدما طالب البنتاغون برفع القيود التي تحد من استخدام النموذج في بعض التطبيقات العسكرية الحساسة. بالنسبة للمؤسسة العسكرية، لم يكن الطلب مسألة تقنية فحسب، بل تعبير عن رغبة في سيطرة كاملة على نظام بات جزءا من بنيتها التكنولوجية. أما بالنسبة للشركة، فالموافقة كانت تعني التخلي عن المبدأ الذي قامت عليه.

ما يجري ليس خلافا تعاقديا عاديا، بل لحظة صدام بين منطقين متعارضين، منطق الدولة التي ترى في الذكاء الاصطناعي أصلا استراتيجيا يجب أن يخضع بالكامل لأولويات الأمن القومي، ومنطق الشركة التي تؤكد وجود خطوط حمراء لا يجوز تجاوزها، حتى في مواجهة أكبر عميل محتمل. القبول كان سيمنح "أنثروبيك" موطئ قدم داخل منظومة النفوذ الدفاعي والتكنولوجي الأميركية، أما الرفض، الذي أصبح الآن أمرا واقعا، فيضعها على مسار مواجهة قد تعيد تشكيل مستقبلها، وربما تعيد رسم طبيعة العلاقة بين وادي السيليكون والبنتاغون ذاته.

جذور الأزمة

لم تتفجر الأزمة بين البنتاغون وشركة "أنثروبيك" فجأة هذا الأسبوع، بل تمتد جذورها إلى أواخر عام 2024، حين بدأ نموذج "كلود" يشق طريقه تدريجيا إلى بيئات حكومية حساسة، ضمن مبادرة أوسع أشرف عليها مكتب الذكاء الرقمي والاصطناعي الرئيس بوزارة الحرب الأميركية، في إطار ما عرف ببرنامج الذكاء الاصطناعي التوليدي التجريبي. وفي نوفمبر/تشرين الثاني 2024، عززت "أنثروبيك" هذا المسار عبر شراكة مع شركتي "أمازون ويب سيرفيسز" و"بالانتير"، لإتاحة النموذج داخل منصات الحوسبة الحكومية المؤمنة.

وسرعان ما تعمق التعاون؛ ففي يوليو/تموز 2025 حصلت الشركة على عقد رسمي بقيمة 200 مليون دولار مع البنتاغون لتطوير وتوفير قدرات ذكاء اصطناعي داخل البيئات الدفاعية. مثلت هذه الخطوة نقطة تحول مفصلية، إذ انتقل "كلود" من كونه أداة تخضع للاختبار إلى عنصر ضمن البنية التكنولوجية التي بدأت المؤسسة العسكرية تعتمد عليها فعليا.

آنذاك، لم ينظر إلى التطور بوصفه مثيرا للجدل، بل عد خطوة طبيعية في سياق سعي البنتاغون لتوظيف الذكاء الاصطناعي في تحليل التقارير الاستخباراتية وتسريع معالجة البيانات. وبفضل سمعته كنموذج يركز على الأمان وقابلية التحكم، أصبح "كلود" من بين الأنظمة التي تجاوزت مرحلة التجربة إلى الاستخدام داخل بعض الشبكات المرتبطة بالمؤسسة الدفاعية.

لم تعد المسألة بالنسبة للبنتاغون مرتبطة بكفاءة النموذج فحسب، بل بطبيعة السيادة على الأداة نفسها ومن يملك القرار النهائي في كيفية توظيفها.

هذا التباين لا يعبر عن اختلاف أخلاقي فحسب، بل يكشف عن انقسام أعمق بشأن شكل العلاقة المستقبلية بين شركات الذكاء الاصطناعي والدولة. ففي الوقت الذي قبلت فيه شركات مثل "أوبن إيه آي" و"غوغل" بأن تصبح جزءا من البنية التحتية للأمن القومي، تحاول "أنثروبيك" الحفاظ على موقعها كشركة تضع حدودا واضحة لاستخدام تقنيتها، حتى وإن كلفها ذلك الدخول في مواجهة مباشرة مع أقوى مؤسسة عسكرية في العالم.

السؤال المطروح اليوم لا يقتصر على قدرة "أنثروبيك" على الصمود في موقفها، بل يمتد إلى مدى قابلية هذا النموذج من الاستقلال للاستمرار من الأساس. فهل يمكن لشركة ذكاء اصطناعي أن تحافظ على مسافة فاصلة بينها وبين الدولة، في زمن أصبح فيه الذكاء الاصطناعي أحد أعمدة القوة الجيوسياسية، وأضحت فيه الحكومة الأميركية- وإن لم تكن تمارس سيطرة كاملة على الصناعة- الممول الأكبر والداعم الرئيس لشركات تتسم بطموح متسارع نحو النمو والتوسع؟

رفض "أنثروبيك" الامتثال لمطالب البنتاغون لا يمكن اختزاله في كونه خلافا تعاقديا بين مورد وعميل، بل يعكس تحولا أعمق في طبيعة صناعة الذكاء الاصطناعي ذاتها. فالنماذج المتقدمة لم تعد مجرد منتجات تقنية تعرض في السوق، وإنما تحولت إلى أصول استراتيجية تتداخل مباشرة مع معادلات الأمن القومي. في هذا السياق، لم يعد التنافس يدور فقط حول تطوير النموذج الأفضل، بل حول من يمتلك الكلمة الأخيرة في كيفية توظيفه. وهنا تتعرض فكرة "الاستقلال التكنولوجي" التي طالما تبنتها شركات وادي السيليكون لاختبار حقيقي، إذ يتقلص هامش هذا الاستقلال كلما أصبحت التكنولوجيا جزءا من منظومة القوة العسكرية.

ما مصير "أنثروبيك"؟

في المقابل، تكشف الأزمة عن ملامح مرحلة يمكن وصفها بعسكرة صناعة الذكاء الاصطناعي. فمع تزايد اعتماد المؤسسات الدفاعية على هذه التقنيات، ستجد الشركات نفسها أمام خيارين أحلاهما مر: إما الاندماج في منظومة الدولة والتكيف مع شروطها، وإما المخاطرة بالتموضع خارجها. وقد بدأت مؤشرات هذا المسار بالفعل، إذ سارعت شركات مثل "أوبن إيه آي" و"إكس إيه آي" إلى توثيق علاقاتها مع الجهات الحكومية، في دلالة واضحة على أن العقود الدفاعية باتت عاملا حاسما في تحديد الوزن الاستراتيجي لكل شركة داخل القطاع.

REUTERS
يظهر مبنى البنتاغون من الجو في واشنطن، الولايات المتحدة الأمريكية

غير أن هذا التحول يضع "أنثروبيك" أمام مستقبل مفتوح على احتمالات متباينة. فتمسكها بموقفها قد يمنحها مكانة فريدة كشركة حافظت على مبادئها، لكنه في المقابل قد يعرضها لكلفة استراتيجية مرتفعة. من بين السيناريوهات المحتملة فرض قيود على تعاملها مع المتعاقدين الدفاعيين، أو استبعادها تدريجيا من مشاريع حساسة، أو ملء منافسيها للفراغ الذي قد ينشأ عن غيابها. وفي صناعة يتزايد فيها الاعتماد على الموارد والشراكات الحكومية، قد يعني ذلك فقدان أحد أهم مصادر النفوذ، حتى لو واصلت الشركة تحقيق نجاحات في الأسواق المدنية.

ومع ذلك، فإن مصير "أنثروبيك" لن يتوقف على قرارها وحده، بل سيتشكل أيضا تبعا لرد فعل الدولة والسوق في لحظة سياسية دقيقة. ففي وقت تتسابق فيه كبرى شركات التكنولوجيا لكسب ود الإدارة الأميركية، عبر لقاءات متكررة واستعدادات للحصول على موافقات استراتيجية تتعلق بالبنية التحتية اللازمة لتشغيل تقنيات الذكاء الاصطناعي، يبدو موقف "أنثروبيك" استثناء لافتا. ويأتي رفضها بينما تمضي الصناعة نحو مزيد من التقارب مع الدولة، وهو اتجاه أشار إليه أيضا سام ألتمان بتأكيده استمرار السعي إلى تفاهمات أوسع مع الحكومة.

إذا نجحت "أنثروبيك" في الحفاظ على موقعها رغم هذا التحدي، فقد يثبت ذلك أن قدرا من الاستقلال لا يزال ممكنا. أما إذا أدى موقفها إلى تهميشها، فستكون الرسالة مختلفة تماما، فالطريق إلى قمة صناعة الذكاء الاصطناعي يمر، حتما، عبر بوابة الحكومة الفيدرالية. وفي الحالتين، فإن ما نشهده اليوم يتجاوز حدود شركة واحدة، ليشكل لحظة فاصلة قد تعيد تعريف العلاقة بين الابتكار التكنولوجي والسلطة السياسية في عصر الذكاء الاصطناعي.

font change

مقالات ذات صلة