أخلاقيات الذكاء الإصطناعي والأمن القومي: تساؤلات شائكة

النزاع القضائي بين شركة 'أنثروبيك' والبنتاغون تجسيدٌ حي للفجوة المتزايدة بين طموحات التطوير العسكري المتسارع وضوابط الأخلاق والمساءلة الإنسانية في عصر الإدراك الآلي.

يتطوّر الذكاء الاصطناعي بوتيرة أسرع من قدرة القانون والأخلاق على مواكبته، وفي ظل هذه الفجوة المتزايدة، أصبح قوة عالمية. ولهذا يجب أن يصبح الذكاء الاصطناعي المسؤول طموحاُ عالمياً موازياً. وهذا يعني السعي إلى إبرام اتفاقية عالمية بشأن الإستخدام المسؤول له  لتوجيه نشر هذه التقنيات.

يثير الذكاء الاصطناعي في المجال الدفاعي قضايا أخلاقية عميقة تختلف عن تلك الموجودة في المجالات المدنية. حيث يثير مخاوف بشأن سوء التقدير، والتصعيد غير المقصود، وتراجع المساءلة، ذلك المبدأ الأساسي للحياة الأخلاقية الإنسانية، والتي تتعلق بالحقوق الإنسانية الدولية: مثل من أطلق النار؟ من اتخذ القرار؟ من الذي يجب أن يُحاكم؟.. إذا كانت هذه الأسئلة غير واضحة، فإن التطبيق الفعال لقواعد الحرب يصبح غامضاً.
وقد أشرت بالتفصيل لبعض تحديات وأخلاقيات الذكاء الاصطناعي والروبوتات في كتابي (بالإشتراك مع الكاتبة والباحثة صفات سلامة) "تحديات عصر الروبوتات وأخلاقياته"، والصادر عن "مركز الإمارات للدراسات والبحوث الإستراتيجية" ضمن سلسلة "دراسات إستراتيجية".

أدّى نزاع حديث بين وزارة الحرب الأمريكية "البنتاغون" وشركة الذكاء الاصطناعي "أنثروبيك" إلى تسليط الضوء على التوتّرات القائمة بين الأمن القومي والتطوير الأخلاقي للذكاء الاصطناعي، ويعود أصل النزاع إلى جهود البنتاغون لتوسيع نطاق استخدامه لأنظمة الذكاء الاصطناعي المتقدمة لأغراضٍ دفاعية. 
تخوض شركة "أنثروبيك"، المزودة لأنظمة الذكاء الاصطناعي، نزاعًا مع "البنتاغون" بعد أن حاولت الشركة فرض "خطوط حمراء" على استخدام منتجاتها من الذكاء الاصطناعي في الأسلحة الفتاكة ذاتية التشغيل والمراقبة الجماعية للأمريكيين. أتهمت الشركة الأمريكية بأنها "تشكل خطرًا على سلسلة التوريد". وتزعم الشركة أنها تُعاقب بسبب التزاماتها العلنية بسلامة الذكاء الاصطناعي واستخدامه الأخلاقي.

ويثير هذا النزاع مجموعة متنوعة من التساؤلات السياسية والقانونية والأخلاقية، وقد تُشكل نتائجه سابقة مهمة للعلاقة بين شركات الذكاء الاصطناعي والحكومة الأمريكية وجكومات العالم. 
كما يمثّل أحدث مثال على اصطدام اندماج الذكاء الاصطناعي السريع في قطاع الأعمال والحكومة، بالمخاوف المتزايدة من أن يتجاوز تطوره بروتوكولات السلامة. ويُسلّط هذا الصراع العلني بين التكنولوجيا والحكومة الضوء على قضايا حوكمة الذكاء الاصطناعي العالمية الأوسع نطاقاً، ومن يضع أو لا يضع قواعد العصر الجديد للحرب بالذكاء الإصطناعي؟ وإذا كانت الشركة الأكثر ارتباطاً بسلامة الذكاء الاصطناعي عاجزة عن جعل الضوابط الأخلاقية مستدامة تجارياً، فمن يستطيع ذلك؟ وإذا لم يستطع الذكاء الاصطناعي الأخلاقي الصمود أمام ضغط التوسع، فأي نوع من الصناعة نبني في الواقع؟ وهل ينبغي أن تتمكن شركات الذكاء الإصطناعي الخاصة من وضع حدود أخلاقية لأنظمة الذكاء الاصطناعي التي قد تُشكل يوماً ما أساس حياتنا؟ وهل يستطيع الذكاء الإصطناعي الأخلاقي الصمود أمام ضغوط السلطة والحكومات؟ وتساؤلات حول جدوى القيادة الأخلاقية في بيئة الذكاء الاصطناعي العالمية مرتفعة التنافسية..

في 26 مارس/آذار 2026، أصدر قاضٍ فيدرالي في ''سان فرانسيسكو'' أمراً قضائياً أولياً ضد "البنتاغون"، يجمّد مؤقتًا قراره الذي قد يُعيق عمل شركة الذكاء الاصطناعي "أنثروبيك"، والذي يصنّف الشركة كـ "خطرٍ على سلسلة التوريد".
النزاع القضائي بين شركة " أنثروبيك" و"البنتاغون"، يحوّله من مجرد نزاع تعاقدي إلى نقاش أوسع حول حرية التعبير للشركات وردود فعل الحكومات. وقد تُرسّخ نتائجه سابقةً حاسمةً لكيفية تعامل شركات الذكاء الاصطناعي الأخرى ذات المواثيق الأخلاقية المماثلة مع العقود الحكومية.

إن الثقة المفرطة في الذكاء الاصطناعي قد تؤدي يوماً ما إلى كوارث إنسانية. لا نريد أن نصل إلى مرحلة يُستخدم فيها الذكاء الاصطناعي لإتخاذ قرار بإنهاء حياة إنسان، في حين لا يمكن محاسبة أي إنسان على هذا القرار.