البنتاغون في مواجهة "أنثروبيك"… من يضع "حدود القتل" للذكاء الاصطناعي؟

شركة "أنثروبيك" تقول آنها لا تثق بهذه الإدارة فيما يتعلق بتقنيتها

(أ.ف.ب)
(أ.ف.ب)
صورة التقطت في 26 ديسمبر 2011 لمبنى البنتاغون في واشنطن العاصمة، وهو مقر وزارة الحرب الأميركية، ويُعد أكبر مبنى إداري في العالم من حيث المساحة الإجمالية

البنتاغون في مواجهة "أنثروبيك"… من يضع "حدود القتل" للذكاء الاصطناعي؟

في يوليو/ تموز 2025، وقّعت شركة الذكاء الاصطناعي الناشئة "أنثروبيك" (Anthropic)، ومقرها سان فرانسيسكو، عقدا بقيمة 200 مليون دولار أميركي مع وزارة الحرب الأميركية (البنتاغون)، لتزويد الجيش بتقنيات ذكاء اصطناعي متقدمة. وبموجب الاتفاق، تقرر نشر نموذج "كلود" (Claude)، الذي طورته الشركة، داخل الأنظمة العسكرية السرية، ويعتبر من بين أكثر المنصات تقدما في هذا المجال. وجاء هذا العقد في إطار توجه متصاعد للشركة، التي كانت تستعد لطرح عام أولي وتسعى إلى توسيع حضورها في قطاع الأمن القومي. وأبدى مسؤولوها التنفيذيون حماسا واضحا لهذه الشراكة، مؤكدين أن العقد "يفتح فصلا جديدا" في مسيرة الشركة.

غير أن الخلافات برزت سريعاً بشأن الاستخدامات المستقبلية لأنظمة "أنثروبيك" داخل المؤسسة العسكرية. فقد أعرب مسؤولو الشركة عن قلقهم من احتمال توظيف التكنولوجيا في تنفيذ عمليات عسكرية ذاتية قاتلة. ورد البنتاغون مؤكدا أن القرارات المتعلقة بالنماذج لا تعود إلى الشركة، وأن تحديد أوجه استخدامها يدخل ضمن صلاحيات الجيش، أسوة بأي تقنية أخرى تحصل عليها الحكومة. ويتباين موقف "أنثروبيك" مع شركات الذكاء الاصطناعي الأخرى مثل "Google"، و"xAI" التابعة لإيلون ماسك، و"OpenAI"، فبينما وافقت الشركات الأخرى جميعها من حيث المبدأ على إتاحة نماذجها لأي استخدام يجيزه القانون، بنت "أنثروبيك" سمعتها على الترويج لمبادئ سلامة الذكاء الاصطناعي، مؤكدة وجود خطوط حمراء لا تنوي تجاوزها. وتشمل إرشادات الاستخدام الخاصة بها قيودا صارمة تحول دون تمكين نموذج "كلود" من تسهيل أعمال العنف أو تطوير الأسلحة أو تصميمها أو تنفيذ عمليات مراقبة جماعية.

وبعد أشهر من التوتر، بلغ الخلاف ذروته في يناير/كانون الثاني. فبعد عملية عسكرية أميركية استهدفت القبض على الرئيس الفنزويلي السابق نيكولاس مادورو، أثار أحد موظفي "أنثروبيك" مخاوف بشأن كيفية استخدام "كلود" خلال العملية لدى شركة "Palantir Technologies"، التي توفّر المنصة التقنية لدمج نموذج "أنثروبيك" في الأنظمة التشغيلية. وسارعت الشركة إلى التواصل مع البنتاغون، معربة عن قلقها من احتمال اعتراض "أنثروبيك" على استخدام تقنيتها في مهمات مماثلة مستقبلا. ووصل الأمر إلى وزير الدفاع بيت هيغسيث، الذي أبدى رد فعل غاضبا.

(أ.ف.ب)
الرئيس الأميركي دونالد ترمب يعرض أمرا تنفيذيا بشأن الذكاء الاصطناعي وقعه خلال قمة "Winning the AI Race" في قاعة أندرو دبليو ميلون بواشنطن، 23 يوليو 2025

وبعد أيام، أصدر هيغسيث مذكرة وجه فيها شركات الذكاء الاصطناعي إلى إزالة القيود المفروضة على تقنياتها. ودفع ذلك "أنثروبيك" إلى إعادة التفاوض حول العقد، إذ طلب مسؤولوها من البنتاغون وضع حدود واضحة لكيفية استخدام أدواتها. وأثار الطلب غضبا في وزارة الحرب. ونقل موقع "أكسيوس" أن هيغسيث كاد ينهي الشراكة مع الشركة، ودرس تصنيفها "خطرا على سلسلة التوريد"، وهو توصيف يُستخدم عادة بحق خصوم أجانب وليس شركات أميركية. ويعني ذلك أن أي شركة ترغب في التعامل مع الجيش ستجد نفسها مضطرة إلى قطع علاقاتها مع "أنثروبيك". وقال هيغسيث في خطاب ألقاه في ولاية تكساس: "لن نعتمد نماذج ذكاء اصطناعي لا تتيح لكم خوض الحروب".

شركة "أنثروبيك" تتخوف من الاستخدامات المستقبلية لأنظمتها داخل المؤسسة العسكرية، ومن احتمال توظيف التكنولوجيا في تنفيذ عمليات ذاتية قاتلة

وفي ضوء هذه المعطيات، بدا رد إدارة ترمب الحازم متوقعاً إلى حد كبير. فمنذ البداية، ساد انعدام الثقة بين كبار مساعدي الرئيس والشركة. وقبل أشهر، خص مسؤول الذكاء الاصطناعي في البيت الأبيض ديفيد ساكس الشركة بانتقادات، متهما إياها بالسعي إلى تمرير أجندة "الذكاء الاصطناعي الووك" (المستيقظ) وتنظيماته عبر ولايات ديمقراطية مثل كاليفورنيا. وفي سبتمبر/أيلول من العام الماضي، أثارت "أنثروبيك" غضب مسؤولي ترمب حين رفضت طلبات من أجهزة إنفاذ القانون الفيدرالية لاستخدام أدواتها في مراقبة المواطنين الأميركيين. ووصف أحد المسؤولين الحكوميين هذا الموقف بأنه أقرب إلى "إصدار حكم أخلاقي على طريقة أداء أجهزة إنفاذ القانون". وفي مرحلة سابقة، درست شركة الاستثمار "1789 Capital"، التي يشارك أحد أبناء الرئيس دونالد ترمب في إدارتها، إمكانية ضخ استثمار بمئات الملايين في "أنثروبيك"، لكنها تراجعت، مشيرة إلى "أسباب أيديولوجية"، من بينها ما وصفته بـ "تاريخ الشركة في انتقاد الرئيس ترمب".

وأفادت التقارير بأن هيغسيث منح الشركة مهلة تنتهي مساء الجمعة للسماح للبنتاغون بالوصول غير المقيد إلى نموذجها للذكاء الاصطناعي، وإلا فستواجه عقوبات قاسية. وفي الوقت نفسه، أشار إلى احتمال اللجوء إلى "قانون الإنتاج الدفاعي" لإجبار "أنثروبيك" على إتاحة نموذج "كلود" للمؤسسة العسكرية، وتهديدها بتصنيفها "خطرا على سلسلة التوريد" في حال رفضت ذلك، وهو إجراء يحظر على البنتاغون استخدام منتجاتها.

وترى إدارة ترمب أن هذا الخلاف يعكس صراعا أوسع حول صلاحياتها وسلطتها: هل يحق لشركة أن تفرض قيودا على كيفية استخدام منتجاتها، أم إن للحكومة الحق في نشر هذه التقنيات وفق ما تراه مناسبا، ولا سيما لأغراض الأمن القومي؟ غير أن هذا الجدل يحجب القضية الحقيقية. فالسؤال الجوهري، المتعلق بمن ينبغي أن ينظم التقنيات المتقدمة وكيف، ينطوي على مخاطر أكبر بكثير.

(أ.ف.ب)
الرئيس التنفيذي لشركة "أنثروبيك"، داريو أمودي، يشارك في اجتماع مع الرئيس الفرنسي إيمانويل ماكرون على هامش قمة "AI Impact" نيودلهي، 19 فبراير 2026

وعلى مدى عقود، أخذ نفوذ الشركات في السياسة الدولية يتسع على حساب الحكومات. واليوم، باتت الشركات في صميم المنافسة الجيوسياسية والحروب الحديثة، إذ تؤثر القرارات التي يتخذها رؤساء الشركات في قدرة الدول على بسط نفوذها وخوض الحروب. ولم تعد الجيوش الجهة الأساسية التي تحدد ملامح ساحة المعركة الحديثة وتكلف الصناعة بتطوير الحلول التكنولوجية، فقد باتت الشركات الخاصة تؤدي دورا متناميا في رسم هذه الساحة من خلال تقديم أدوات ومنتجات رقمية تمنح الجيوش مزايا استراتيجية.

أثارت أنثروبيك غضب إدارة ترمب برفضها طلبات من أجهزة إنفاذ القانون لاستخدام أدواتها في مراقبة المواطنين الأميركيين

ولم يكن الأمر كذلك دائما. ففي العالم الذي تمحور حول الدولة خلال خمسينات وستينات القرن الماضي، خضعت الشركات عموما لسلطة الدولة، واعتمدت على الحكومات في توفير الأمن والنظام القانوني، مع احتفاظها بهامش محدود من الاستقلالية لتحقيق أهدافها السوقية. غير أن سبعينات القرن العشرين شكلت نقطة تحول، مع انهيار نظام "بريتون وودز" وتخفيف القيود على حركة رؤوس الأموال، إلى جانب الطفرات التي شهدتها تقنيات المعلومات والاتصالات. ومهدت هذه العوامل الطريق أمام عولمة الشركات، ما أفضى إلى تحول في ميزان القوة لصالح الجهات الخاصة وعلى حساب الدول.

واليوم، تتخذ شركات مثل "مايكروسوفت" قرارات مستقلة بشأن ما إذا كانت تقنياتها ستدعم حملات المراقبة الجماعية التي تنفذها إسرائيل ضد الفلسطينيين في غزة. ويقرر إيلون ماسك ما إذا كان سيوقف خدمات "Starlink" التي يستخدمها الجنود الأوكرانيون في مواجهة القوات الروسية، وما إذا كان سيُبقي الخدمة متاحة في إيران ومنعها في أوغندا. وأفرز هذا الواقع توترا جوهريا يقوم على السؤال: عندما تتعارض مصالح الشركات الخاصة مع أهداف الحكومة، أي الطرفين تكون له الكلمة الفصل؟

غير أن الخلاف بين ترمب و"أنثروبيك" ينطوي على أبعاد إضافية أكثر تعقيدا. فأساس موقف الشركة يقوم على اعتقاد مفاده أن البيت الأبيض في عهد ترمب ليس جهة موثوقة للإشراف على تقنيات الذكاء الاصطناعي العسكرية وتقنيات المراقبة، وأن من واجبها وضع ضوابط مستقلة تحول دون إساءة استخدام هذه الأدوات من جانب البنتاغون أو غيره من الأجهزة. فهل تملك "أنثروبيك" ما يبرر هذا الموقف؟

(رويترز)
رئيس الوزراء الهندي مع الرئيس التنفيذي لـ"غوغل" و"ألفابت"، والرئيس التنفيذي لـ"OpenAI"، والرئيس التنفيذي لـ"أنثروبيك"، وعدد من قادة التكنولوجيا العالميين خلال قمة "AI Impact" في نيودلهي، 19 فبراير 2026

بعد عام على توليها السلطة، أثار سلوك هذه الإدارة سلسلة من مؤشرات القلق. فعلى الصعيد الداخلي، تتزايد الأدلة على أن وكالات مثل إدارة الهجرة والجمارك الأميركية (ICE) تستخدم تقنيات المراقبة المعتمدة على الذكاء الاصطناعي على حافة القانون. ففي ولاية مينيسوتا، اعتمد عناصر الوكالة على برنامجين للتعرف إلى الوجوه طورتهما شركتا "Clearview AI" و"NEC Mobile Fortify" لتعقب أفراد واعتراض مشتبه فيهم. كما حصل أكبر متعاقد مع الوكالة، شركة "Geo Group"، على عقود تجاوزت قيمتها 800 مليون دولار في عام 2025 وحده، لاستخراج بيانات من قواعد معلومات تجارية، وتنفيذ عمليات مراقبة ميدانية لأشخاص يُشتبه في وجودهم داخل البلاد بصورة غير قانونية. وكانت الشركة تدير في الأصل سجونا خاصة، ثم اتجهت إلى خدمات المراقبة للاستفادة من حملة الترحيل التي أطلقها ترمب. وفي الوقت نفسه، يستخدم عناصر وزارة الأمن الداخلي قاعدة بيانات تديرها شركة "Palantir Technologies"، تجمع بين بيانات حكومية وتجارية لتحديد "المواقع الفعلية" لأشخاص محل اهتمام. وقال ناثان فريد ويسلر، وهو محام في الاتحاد الأميركي للحريات المدنية، إن دمج هذه التقنيات يمنح الحكومة قدرات غير مسبوقة.

شركة "أنثروبيك" تعتقد أن البيت الأبيض في عهد ترمب ليس جهة موثوقة للإشراف على تقنيات الذكاء الاصطناعي العسكرية وتقنيات المراقبة

وعلى الصعيد العسكري، يمضي البنتاغون قدما في توسيع استخدام الذكاء الاصطناعي داخل ترسانته. فمن الطائرات المسيرة ذاتية التشغيل إلى أنظمة الاستهداف المعتمدة على الذكاء الاصطناعي، يتعزز الإدراك بأن مستقبل الحرب سيكون أسرع وأكثر أتمتة وأكثر فتكا، مع اعتماد متزايد على هذه التقنيات لتحقيق التفوق في ساحة المعركة. وأبدت الإدارة نيتها المضي أبعد في هذا الاتجاه. ووفق تعبير هيغسيث، يتمثل الهدف في تحويل الجيش إلى "قوة قتالية تعتمد على الذكاء الاصطناعي أولاً" في جميع مكوناته.

وتقدم الحروب في غزة وأوكرانيا لمحة واضحة عن القدرات التدميرية لهذه الأنظمة. فقد أدت تقنيات الاستهداف المعتمدة على الذكاء الاصطناعي التي استخدمتها إسرائيل ضد عناصر مشتبه بانتمائهم إلى حركة "حماس" دورا محوريا في العمليات العسكرية. وتشير تقارير إلى أن أحد هذه الأنظمة، المعروف باسم "لافندر"، أنتج خلال الأسابيع الستة التي أعقبت هجمات 7 أكتوبر/تشرين الأول 2023 ما لا يقل عن 37 ألف توصية استهداف، ونفذ على أساسها أكثر من 15 ألف هجوم. وبلغت نسبة الخطأ في هذه التوصيات نحو 10 في المئة، ما يعني أن آلاف المدنيين ربما جرى تحديدهم خطأ بوصفهم أهدافا عسكرية. ومع استمرار الحرب، وصف بعض المطلعين هذه المنظومات بأنها "مصنع اغتيال جماعي" نظرا لقدرتها على توليد أهداف بوتيرة غير مسبوقة. وتعكس هذه التطورات دخول الحروب مرحلة جديدة من الفتك، ما يضاعف الحاجة إلى أطر صارمة للمساءلة والتنظيم.

ورغم ذلك، اتخذت إدارة ترمب خطوات أضعفت إجراءات الرقابة الداخلية. فقد أقال هيغسيث، بعيد تثبيته في منصبه، كبار المستشارين القانونيين العسكريين المعروفين باسم "كبار المستشارين القانونيين العسكريين"، معتبرا أنهم جزء من مؤسسة عسكرية أصبحت، بحسب وصفه، مثقلة باعتبارات قانونية واجتماعية. ويؤدي هؤلاء دورا محوريا في ضمان التزام العمليات العسكرية بقوانين النزاعات المسلحة. كما ألغت الإدارة مكاتب داخل البنتاغون كانت مكلفة بالحد من الأضرار التي تلحق بالمدنيين وتقييمها، بما في ذلك مكتب التخفيف من الأضرار المدنية ومركز حماية المدنيين. وامتدت هذه الإجراءات إلى مكتب الاختبارات والتقييم العملياتي، الذي أنشئ أصلا لضمان سلامة وكفاءة أنظمة الأسلحة قبل نشرها.

(أ.ف.ب)
الرئيس الفرنسي إيمانويل ماكرون يتحدث مع الرئيس التنفيذي لشركة "أنثروبيك" داريو أمودي خلال اجتماع على هامش قمة "AI Impact" في نيودلهي، 19 فبراير 2026

وفي ظل هذا السياق، تبدو مخاوف شركة "أنثروبيك" مفهومة. فقد دأب رئيسها التنفيذي داريو أمودي على التحذير من مخاطر الاستخدام غير المنضبط للذكاء الاصطناعي، مؤكدا ضرورة فرض قيود صارمة تحول دون توظيف هذه التقنيات في المراقبة الجماعية أو في تطوير أدوات يساء استخدامها. ومع ذلك، فإن ترك مسألة تنظيم الذكاء الاصطناعي لشركات خاصة أو لقرارات إدارية منفردة يثير بدوره إشكالات عميقة. ويبقى السؤال الأهم مطروحا: من يملك سلطة وضع القواعد التي تحكم أخطر التقنيات في عصرنا، وعلى أي أسس؟

رئيس "أنثروبيك" يحذر من مخاطر الاستخدام غير المنضبط للذكاء الاصطناعي، ويدعو لقيود على توظيف التقنيات في المراقبة الجماعية أو في تطوير أدوات يساء استخدامها

وبالمثل، ألغى هيغسيث مكاتب داخل البنتاغون كانت مكلفة بمنع الأضرار التي تلحق بالمدنيين خلال العمليات القتالية والاستجابة لها. وفصل الموظفين العاملين في مكتب التخفيف من الأضرار المدنية والاستجابة لها، وكذلك مركز التميز لحماية المدنيين، ما خلف فجوة واسعة في تقييم المخاطر التي يتعرض لها المدنيون أثناء ضربات الطائرات المسيّرة والمهام المرتبطة بها. وأقال أيضا المدير المؤقت وخفّض عدد العاملين في مكتب الاختبار والتقييم العملياتي، الذي أنشأه الكونغرس عام 1983 استجابة لمخاوف من أن البنتاغون كان ينشر أنظمة أسلحة لا تعمل بسلامة أو فعالية كافيتين، وهو تطور يثير القلق على نحو خاص في عصر الحروب المعتمدة على الذكاء الاصطناعي. ويبدو أن إضعاف المساءلة امتد إلى العمليات العسكرية نفسها، كما في الضربات التي نفذها البنتاغون ضد قوارب يقول ترمب إنها كانت تهرّب المخدرات.

وبالعودة إلى شركة "أنثروبيك"، أبدت قيادتها قلقا مبررا بشأن كيفية استخدام أنظمتها، ولا سيما في مجالي الحرب وإنفاذ القانون. وأكد رئيسها التنفيذي داريو أمودي مرارا أن الذكاء الاصطناعي يحتاج إلى قيود صارمة لمنع إلحاق الضرر بالعالم. وفي سلسلة من المقالات، حذر أمودي من أن استخدام الذكاء الاصطناعي في "المراقبة الجماعية الداخلية والدعاية الجماعية" أمر غير مشروع، وأن أسلحة الذكاء الاصطناعي عرضة لإساءة الاستخدام ولا ينبغي التعجيل بنشرها من دون ضمانات كافية. ومع ذلك، لا يقتنع الجميع بأن أمودي يضع المصلحة العامة في المقام الأول. فشركة "أنثروبيك"، في نهاية المطاف، شركة ربحية تسعى، أسوة بغيرها من شركات الذكاء الاصطناعي الناشئة، إلى طرح عام ناجح وتعظيم إيراداتها. ومع ذلك، ينبغي التعامل مع تحذيراته بجدية. وحتى لو أظهرت إدارة ترمب قدرا أكبر من الالتزام بالمعايير والمبادئ القانونية، فإن المخاطر المرتبطة بالإسراع في نشر أدوات الذكاء الاصطناعي العسكرية ستظل كبيرة.

غير أن عدم الثقة في قدرة إدارة ترمب على الإشراف الآمن على هذه التقنيات لا يعني تسليم زمام السيطرة إلى شركة "أنثروبيك". حتى لو تمسكت الشركة بمبادئها، يستطيع البنتاغون ببساطة أن يستبدلها بشركة منافسة، مثل نموذج "غروك" (Grok) التابع لشركة "xAI"، الذي ارتبط بسجل موثق من المخرجات المتحيزة والمضللة والمتطرفة. ولم تعد التطبيقات العسكرية والاستخباراتية للذكاء الاصطناعي مجرد افتراضات نظرية، بل غدا حضورها ملموسا في ساحة المعركة وفي أعمال إنفاذ القانون. وبناء على ذلك، يتعين على جهات مؤسسية أخرى، وفي مقدمتها الكونغرس، أن تخرج من موقع المتفرج.

(أ.ف.ب)
الرئيس التنفيذي لشركة "أنثروبيك"، داريو أمودي (يمين الوسط) يغادر بعد لقائه الرئيس الفرنسي إيمانويل ماكرون خلال قمة "AI Impact" في نيودلهي، 19 فبراير 2026

وينبغي للمشرعين أن يؤدوا دورا مباشرا في وضع حدود الاستخدام المقبول للذكاء الاصطناعي العسكري وفرض متطلبات شفافية بشأن كيفية نشر البنتاغون لهذه الأنظمة. وكما كتب باحثون، من بينهم آلان ز. روزنشتاين، فإن القواعد التي تحكم الذكاء الاصطناعي العسكري لا ينبغي أن تعتمد على الالتزامات الأخلاقية للرئيس التنفيذي الذي يتولى المنصب في لحظة معينة، ولا على التوجهات السياسية لوزير الحرب الذي يشغل المنصب. وفي غياب دور الكونغرس، ستظل سياسات الذكاء الاصطناعي تتشكل عبر صفقات مرتجلة بين السلطة التنفيذية والشركات، من دون مساءلة عامة وبقابلية محدودة للاستمرار بعد انتهاء عمر الإدارة الحالية.

الذكاء الاصطناعي يحتاج إلى قيود صارمة لمنع إلحاق الضرر بالعالم

داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك

ويقول مسؤولون في إدارة ترمب إن خلافهم مع شركة "أنثروبيك" يهدف إلى تصحيح اختلال في ميزان القوة ومنع شركة خاصة من فرض قيود على كيفية استخدام الجيش لأدواته. غير أن السؤال الحقيقي هو ما إذا كان يمكن الوثوق بإدارة ترمب أو بشركات التكنولوجيا لتطوير تقنيات ذكاء اصطناعي قوية للأمن القومي بطريقة آمنة ومسؤولة. وحتى الآن، تبدو الإجابة سلبية.

font change

مقالات ذات صلة