حين تكتب الخوارزميات قوانينها في جنوب افريقيا!
كيب تاون - في واقعة هي الأولى من نوعها على مستوى الحكومات، وجدت جنوب أفريقيا نفسها مضطرة لسحب مسودة سياستها الوطنية المنظمة للذكاء الاصطناعي، في خطوة وصفت بـ"الانتكاسة المحرجة"، بعدما كشف تقرير استقصائي أن الوثيقة الرسمية التي كان من المفترض أن ترسم مستقبل التكنولوجيا في البلاد، كُتبت بأيدي "خوارزميات" وقعت في فخ الهلوسة الرقمية.
وبدأت الأزمة حين نشرت وزارة الاتصالات والتقنيات الرقمية المسودة للتشاور العام، بهدف تموضع جنوب أفريقيا كقائد إقليمي للابتكار.
وكانت المسودة المسحوبة تهدف إلى وضع إطار شامل لتنظيم استخدام الذكاء الاصطناعي في البلاد، مع خطط لإنشاء هيئة وطنية متخصصة، ومجلس للأخلاقيات، إضافة إلى حوافز مالية لدعم الابتكار في هذا المجال. وتأتي هذه المبادرة ضمن مساعي جنوب أفريقيا لتعزيز موقعها كمركز إقليمي للتكنولوجيا في القارة الإفريقية.
لكن الفحص الدقيق الذي أجرته منصة "News24" المحلية فجّر مفاجأة من العيار الثقيل؛ إذ تبيّن أن 6 مراجع أكاديمية على الأقل من أصل 67 استشهاداً استندت إليها الوثيقة لا وجود لها في الواقع.
ورغم أن المسودة نسبت هذه الأبحاث إلى دوريات علمية عريقة مثل "المجلة الجنوبية أفريقية للفلسفة" و"دورية الذكاء الاصطناعي والمجتمع"، إلا أن محرري هذه الدوريات أكدوا رسمياً أن تلك المقالات "وهمية تماماً"، ولا تعدو كونها "هلوسات" ولّدتها النماذج اللغوية الكبيرة (LLMs) لتبدو بأسلوب أكاديمي مقنع.
من جانبه، لم يجد وزير الاتصالات والتقنيات الرقمية، سولي مالاتسي بدّا من الاعتراف بالخلل، وعبر منصة اكس أعلن الوزير سحب الوثيقة فورا، مؤكدا أن هذا الفشل "تجاوز كونه خطأً تقنياً لينال من نزاهة العملية السياسية ومصداقية مؤسسات الدولة".
درس سنتقبله بتواضع لنؤكد أن الرقابة البشرية اليقظة تظل صمام الأمان الوحيد
وصرح مالاتسي بلهجة حازمة: "التفسير الأكثر منطقية هو إدراج استشهادات مولدة آلياً دون تدقيق بشري كافٍ. هذا السهو غير مقبول، وهو درس سنتقبله بتواضع لنؤكد أن الرقابة البشرية اليقظة تظل صمام الأمان الوحيد أمام هذه التقنيات".
كما تعهد الوزير بمحاسبة المسؤولين عن هذا "التسيب" الإداري والبحثي.
طموحات في مهب "الهلوسة"
المفارقة في هذه القضية تكمن في جوهر الوثيقة المسحوبة؛ فقد كانت تهدف لإنشاء "مفوضية وطنية للذكاء الاصطناعي" و"مجلس للأخلاقيات"، إضافة إلى تقديم حوافز ضريبية ومنح لدعم البنية التحتية التكنولوجية.
غير أن اعتماد واضعي السياسة على الذكاء الاصطناعي التوليدي (مثل ChatGPT أو Gemini) لملء فجوات البيانات، أدى إلى نتائج عكسية؛ حيث قامت الخوارزميات بتأليف مراجع بأسماء ومجلات حقيقية لإعطاء انطباع بالموثوقية، وهو سلوك تقني معروف يحدث عندما تفتقر النماذج لبيانات دقيقة في نطاق معين.
ولا تعد واقعة جنوب أفريقيا معزولة عن سياق عالمي متصاعد؛ فقد أشارت تقارير حديثة لمجلة Nature إلى أن أكثر من 2.5% من الأوراق الأكاديمية المنشورة في عام 2025 (نحو 110 آلاف ورقة) احتوت على مراجع وهمية ولّدها الذكاء الاصطناعي، مقارنة بـ 0.3% فقط في عام 2024.
ويرى خبراء أن خطورة هذه الأدوات لا تكمن فقط في إمكانية ارتكابها للأخطاء، بل في قدرتها على إنتاج محتوى يبدو مقنعا إلى حد كبير، بما في ذلك مراجع علمية بأسماء ومجلات حقيقية، ما يجعل اكتشاف الأخطاء أكثر صعوبة دون تدقيق متخصص.
الآن، تعود جنوب أفريقيا إلى طاولة الصياغة من جديد، مع وعد حكومي بتشديد إجراءات المراجعة والتحقق.
وتبقى هذه الحادثة بمثابة "جرس إنذار" لكافة الحكومات والمؤسسات التشريعية حول العالم: إن الاعتماد الأعمى على الذكاء الاصطناعي في صياغة القوانين قد يؤدي إلى "تزييف الواقع" بمسحات أكاديمية مقنعة، مما يهدد جوهر العمل المؤسسي والرقابي.