حروب بالذكاء الإصطناعي: عصر جديد بلا أخلاقيات؟

تقنيات محاكاة العقل البشري تعيد صياغة مفاهيم الحرب والقدرات العسكرية، لكنها افرض تحديات أخلاقية وقانونية معقدة حول المسؤولية والسيطرة البشرية في ظل صعود 'الأسلحة ذاتية التشغيل'.

التطورات السريعة في مجال الذكاء الاصطناعي سوف تغير طبيعة الحروب الحديثة، ولكنها تُثير مجموعة جديدة من التساؤلات الأخلاقية.

في هذا العصر التكنولوجي الجديد، يُشكل صعود الذكاء الاصطناعي والأسلحة ذاتية التشغيل تحديات أخلاقية عميقة أمام السلام والأمن العالميين.

 فأنظمة الذكاء الاصطناعي حالياً تعيد تشكيل ديناميكيات الصراع، بدءاً من العمليات العسكرية، وصولًا إلى صنع القرارات الاستراتيجية، فالذكاء الاصطناعي، بدءاً من التعلّم الآلي ونماذج اللغة الضخمة وصولًا إلى الأنظمة الوكيلة والمنصات المستقلة، سوف يُغير كيفية توليد القوة وتطبيقها.

فأنظمة الذكاء الإصطناعي وفي غضون ثوانٍ، تقوم بمسح الصور، ورصد التحركات المشبوهة، وتحديد الأهداف المحتملة، وإقتراح الخطوات التالية. هذه المهام كانت تستغرق عادةً ساعات أو حتى أياماً من المحللين البشريين، حالياً يمكن إنجازها فجأةً وبشكل شبه فوري.

ولكن قد ترتكب أنظمة الذكاء الإصطناعي أخطاءً، فالإرتباطات الخاطئة البسيطة قد تتفاقم بشكل خطير، وبخاصة إذا تم تطبيقها على ملايين الأشخاص، كما تتصف هذه الأنظمة أيضاَ بالغموض، فكيفية تحليلها للبيانات وتوصلها إلى استنتاجاتها لا يمكن فهمها بالكامل.

وقد أفادت العديد من التقارير أن الجيش الأمريكي استخدم الذكاء الاصطناعي في الضربات الجوية على إيران وفنزويلا، والجيش الإسرائيلي في حرب غزة.

والسؤال هنا حول ما إذا كان ينبغي لشركات الذكاء الاصطناعي فرض خطوط حمراء أخلاقية صارمة على استخدام تقنياتها في المجال العسكري. ومن يحدد القواعد عندما تدخل تقنية جديدة قوية ساحة المعركة؟

ذلك لأن بعض الأنظمة التقنية التي يجري تطويرها اليوم تتجاوز ذلك، فبدلاً من مجرد مساعدة القادة، يمكنها في نهاية المطاف تحديد الأهداف ومهاجمتها بشكل مستقل، وتسمى هذه الأنظمة باسم "أنظمة الأسلحة الفتاكة ذاتية التشغيل"، وهي أسلحة قادرة على اختيار الأهداف وضربها دون تحكم بشري مباشر.ويُشار إلى هذه التقنيات أحيانًا باسم "الروبوتات القاتلة"، وتشير ببساطة إلى أسلحة تستخدم الذكاء الاصطناعي لإختيار الأهداف وضربها تلقائياً. وهنا تبدأ الأمور بالتعقيد، لأن قوانين الحرب كُتبت على إفتراض أساسي مفاده أن البشر هم من يتخذون القرارات في ساحة المعركة، وعادةً ما تكون المسؤولية واضحة، ويمكن التحقيق مع الأفراد والقادة الذين نفذوا الهجوم، ومحاسبة الذين أصدروا أوامر غير قانونية.

لكن الأسلحة ذاتية التشغيل تُعقد مفهوم المسؤولية، فإذا أخطأ نظام ذكاء اصطناعي في تحديد هدف أو تسبب في سقوط ضحايا مدنيين، فمن المسؤول تحديداً؟ القائد العسكري الذي نشر النظام؟ أم المهندسون الذين كتبوا الخوارزمية؟ أم الآلة نفسها؟ سؤال لا تُجيب عنه القواعد الحالية بوضوح.

لهذا يدور نقاش حالياً حول ما إذا كان العالم بحاجة إلى قواعد وأنظمة جديدة للأسلحة ذاتية التشغيل.

وقد أشرت بالتفصيل لبعض تحديات وأخلاقيات الذكاء الاصطناعي والروبوتات في كتابي (بالإشتراك مع الكاتبة والباحثة صفات سلامة)، بعنوان "تحديات عصر الروبوتات وأخلاقياته"، والصادر عن "مركز الإمارات للدراسات والبحوث الإستراتيجية" ضمن سلسلة "دراسات إستراتيجية".

فعلى سبيل المثال شركة الذكاء الإصطناعي الأمريكية "أنثروبيك"، التي طوّرت روبوت الدردشة "كلود"، لم تكن مستعدة لإزالة القيود التي قد تسمح لوزارة الحرب الأمريكية (البنتاغون) باستخدام ذكائها الاصطناعي في المراقبة الجماعية أو الأسلحة ذاتية التشغيل بالكامل.

لقد اندلع صراع أخلاقي حول الذكاء الاصطناعي، حيث رفضت شركة "أنثروبيك" استخدام "البنتاغون" لتقنيتها، حيث يُظهر الشركة وقادتها وهم يحاولون وضع قيود على استخدامات الذكاء الاصطناعي في المجال العسكري. ويُجسد هذا الوضع التوترات التي تنشأ عندما تصطدم القيم والأخلاقيات المعلنة لشركات التقنية مع متطلبات الحكومات والأمن القومي.

والسؤال هنا: أين ينبغي تحديد ضوابط استخدام الذكاء الاصطناعي في الحروب؟، وهل تبقى هذه الضوابط في أيدي الشركات التي تُطور أنظمة الذكاء الإصطناعي؟، وكيف سيحافظ البشر على سيطرتهم على الحروب التي تُدار بالذكاء الاصطناعي؟.

ستحتاج الجيوش إلى قواعد جديدة لكيفية تبنيها للذكاء الاصطناعي واستخدامه قانونياً وأخلاقياً في ساحات المعارك.