مخاطر الذكاء الإصطناعي: إستقالات العلماء وأجراس الإنذار
موجة الاستقالات الأخيرة من علماء الذكاء الإصطناعي، تجعل النقاشات حول مخاطر الذكاء الإصطناعي وكيفية تنظيمه ضرورة عاجلة، حتى مع ضخ شركات التكنولوجيا الكبرى للمليارات لتمويل استثماراتها المتنامية في الذكاء الاصطناعي.
لا يكاد يمر شهر دون أن يحذر أحد كبار خبراء الذكاء الاصطناعي من أن هذه التكنولوجيا تشكل تهديداً وجودياً للبشرية. قد تكون العديد من هذه التحذيرات غامضة، وقد يكون بعضها الآخر نابعًا من مصالح شخصية، لكن مع ذلك، تستحق هذه التحذيرات أن تُؤخذ على محمل الجد.
ومؤخراً، خلال شهر فبراير/شباط الجاري، استقال الباحث "مرينانك شارما"، في شركة أنثروبيك، الشركة الرائدة في مجال الذكاء الاصطناعي والتي طوّرت روبوت الدردشة "كلود". وفي منشور على موقع اكس بتاريخ 9 فبراير/شباط الجاري، حذر شارما من "عالم في خطر"، وأنه "شاهد مراراً وتكراراً مدى صعوبة جعل قيمنا تحكم أفعالنا".
وخلال فبراير أيضاً، استقالت الباحثة "زوي هيتزيغ" من شركة "أوبن إيه آي" بسبب مخاوفها من استخدام الإعلانات على منصة " شات جي بي تي"
وفي مايو/ايار 2024، قامت شركة "أوبن إيه آي" بحل فريقها المخصص للبحث في المخاطر طويلة المدى للذكاء الاصطناعي، وأعلن قائدي الفريق "إيليا سوتسكيفر، وجان ليك" مغادرتهما الشركة.
كما أن استقالة "جيفري هينتون" الملقب "الأب الروحي للذكاء الاصطناعي" أوائل مايو/ايار 2023 من غوغل جاءت نذيراً لجميع دول العالم من المخاطر المحتملة مستقبلاً المتعلقة بتطبيقات الذكاء الاصطناعي.
شهدت قدرات الذكاء الاصطناعي في الأشهر الأخيرة قفزات نوعية هائلة، وتحولت العديد من مخاطر الذكاء الاصطناعي النظرية إلى واقع ملموس، مثل التزييف العميق، وإمكانية استخدامه في الهجمات الإلكترونية، والمشكلات النفسية الناجمة عن تفاعل الأفراد مع أنظمة الذكاء الاصطناعي وتعلقهم الوثيق بها عاطفياً.
ويتم حالياً تضمين الذكاء الاصطناعي والروبوتات في سياقات كثيرة ومتنوعة من مجتمعاتنا وفي حياتنا اليومية، فالتطورات في تكنولوجيا الذكاء الاصطناعي سيكون لها القدرة على التأثير في كل جانب من جوانب حياتنا الحديثة تقريباً، إلا أن ذلك لا يخلو من مخاطر وتحديات، وعلينا أن نتخيل مدى الضرر الذي قد يلحق بالمجتمع إذا تم بناء أو استخدام ذكاء اصطناعي بطريقة غير صحيحة أو غير مسؤولة. فمثلاً التطورات في تكنولوجيا الذكاء الاصطناعي التي تعمل على أتمتة العمل قد تؤدى إلى القضاء على سبل العيش، كما أن الخوارزميات المدربة على البيانات قد تؤدي إلى إدامة أو تفاقم التحيزات وعدم المساواة مثل التمييز القائم على الجنس أو العرق، كما أن أنظمة الذكاء الاصطناعي التي تتطلب ضرورة توافر كميات كبيرة من البيانات الشخصية، كما هو الحال في الرعاية الصحية، بدون تخطيط دقيق قد تقوض الخصوصية.
وقد أشرت بالتفصيل لبعض تحديات وأخلاقيات الذكاء الاصطناعي والروبوتات في كتابي (بالإشتراك مع الكاتبة والباحثة صفات سلامة)، بعنوان "تحديات عصر الروبوتات وأخلاقياته"، والصادر عن "مركز الإمارات للدراسات والبحوث الإستراتيجية" ضمن سلسلة "دراسات إستراتيجية".
لهذا بدأت الدول المتقدمة في تخصيص استثمارات ضخمة، لدراسة أخلاقيات الذكاء الاصطناعي والتعرف على المخاطر المحتملة للذكاء الاصطناعي سواء على المدى القريب أو البعيد، من منظور إقتصادي وإجتماعي وثقافي، من خلال التركيز على خصوصية البيانات وكيفية إداراتها، وكذلك كيفية تجنب الآثار الضارة للذكاء الاصطناعي على القوى العاملة، ويتم الإستعانة في هذا الشأن بعلماء العلوم الإنسانية كعلم النفس والإجتماع، وذلك لتوجيه القرارات الحكومية المتعلقة بالذكاء الاصطناعي وضمان الإستفادة من الفرص التي توفرها هذه التكنولوجيا، وبالتالي تعزيز الثقة في مجال الذكاء الاصطناعي.
الإستثمار مبكراً في مخاطر وأخلاقيات الذكاء الاصطناعي أصبح ضرورة حتمية جنباً الى جنب مع الإستثمار في الفرص والوعود، وذلك لتجنب المخاطر والتحديات المحتملة للذكاء الاصطناعي التي بدأت تلوح في الأفق والتي سبق وحذر منها العديد من العلماء والأكاديميين المتخصصين في مجال الذكاء الاصطناعي والعلوم الإنسانية.
فهم المخاطر التي ينطوي عليها الذكاء الاصطناعي يعد جانباً أساسياً في أي إستراتيجية إستثمارية متعلقة بهذا المجال، فتركيز وتفكير المستثمرين في المخاطر المحتملة للذكاء الاصطناعي، سوف يسمح لهم بتقديم منتجاتهم بشكل أكثر موثوقية، وسيكون لديهم فرصة أفضل لتحقيق عوائد كبيرة وأرباح أكبر للمساهمين، كما يجب على المستثمرين دائمًا تنفيذ استراتيجيات إدارة المخاطر، وذلك لإدارة وبفعالية المخاطر المرتبطة باستثماراتهم.
أصبح هناك ضرورة عاجلة في عالمنا العربي، كإجراءات إستباقية للإستثمار في مخاطر وأخلاقيات الذكاء الاصطناعي والإهتمام الجاد بدعم دراسات وبحوث العلوم الإنسانية في الذكاء الاصطناعي، لإثراء ودعم قرارات الحكومات العربية وصنع السياسات، وتحقيق أقصى قدر من الفرص، وضمان التنفيذ الآمن والموثوق والمسؤول لتكنولوجيا الذكاء الاصطناعي على مدى العقود المقبل، فهل نحن فاعلون؟