الذكاء الاصطناعي يحوّل مرضا اكتشفته جامعة هاري بوتر الى حقيقة علمية!
ستوكهولم - في عام 2024، أطلقت الباحثة الطبية ألميرا عثمانوفيتش ثونستروم من جامعة غوتنبرغ السويدية تجربة اجتماعية-تكنولوجية، لم تكن تدرك حينها أنها ستتحول إلى واحدة من أكبر الفضائح التي تضرب مصداقية البحث العلمي والذكاء الاصطناعي في آن واحد.
واخترعت ثونستروم مرضا خياليا أطلقت عليه اسم "بيكسونيمانيا" (Bixonimania)، في تجربة كشفت كيف يمكن لـ "هراء الذكاء الاصطناعي" (AI Slop) أن يتحول إلى حقيقة طبية مُعترف بها في غضون أسابيع.
وبدأت الفكرة حين أرادت ثونستروم اختبار ما إذا كانت النماذج اللغوية الكبيرة قادرة على تمييز المعلومات المضللة وتصفيتها.
وللتحقق من الفرضية، ابتكرت ثونستروم حالة طبية زعمت أنها تصيب الجلد والهالات المحيطة بالعين بصبغة وردية نتيجة "التحديق الطويل في الشاشات والتعرض للضوء الأزرق".
ولكي تُحكم الفخ، قامت برفع ورقتين بحثيتين (Preprints) إلى خادم الأبحاث الأكاديمية "SciProfiles" و"Preprints.org" في ربيع عام 2024.
لم تكتفِ بذلك، بل نسبت الأبحاث لمؤلف وهمي يدعى "لازليف إيزغوبلينوفيتش" (Lazljiv Izgubljenovic)، وهو اسم بلكنة سلافية يوحي بمعاني "الكذب والضياع"، ودعمت ملفه الشخصي بصورة أُنشئت عبر الذكاء الاصطناعي.
الألغام الهزلية: اختبار لذكاء البشر والآلات
كانت ثونستروم واضحة في "تزييفها" لدرجة العبث، حيث زرعت علامات تحذيرية (Red Flags) لا يمكن لأي عين بشرية واعية أن تخطئها:
وتضمن البحث شكراً لـ "الأستاذة ماريا بوم" من أكاديمية "ستارفليت" (Star Trek) على كرمها في إتاحة مختبرها الموجود على متن سفينة الفضاء "يو إس إس إنتربرايز".
كما ذكرت أن العمل ممول من "مؤسسة البروفيسور سايدشو بوب" (المجرم الكرتوني في عائلة سمبسون) و"جامعة زمالة الخاتم" (سيد الخواتم) و"الثلاثي الغلاكتيكي".
وزعم البحث أن المؤلف يعمل في "جامعة أستيريا هورايزن" غير الموجودة، في مدينة وهمية تُدعى "نوفا سيتي" بولاية كاليفورنيا.
بل انه ورد في قلب الورقة البحثية عبارات مثل "هذه الورقة بأكملها مختلقة" و"تم تجنيد 50 فرداً وهمياً".
كما اختارت اسم "مانيا" (Mania) عمداً، وهو مصطلح نفسي (هوس) لا علاقة له بأمراض الجلد أو العيون، لتختبر ما إذا كان الأطباء سيميزون التناقض.
السقوط الكبير: كيف استجاب الذكاء الاصطناعي والبشري
رغم كل هذه الأدلة الفاضحة، ابتلعت النماذج اللغوية الطُعم بسرعة مذهلة. وبحلول أبريل/نيسان 2024، بدأت النتائج الكارثية تظهر، وجد الباحثون أن الأوراق المزيفة بدأت تظهر كمراجع مُستشهد بها في أدبيات أكاديمية أخرى خاضعة لمراجعة الأقران.
وصرح كوبايلوت من مايكروسوفت في 13 أبريل/نيسان بأن "بيكسونيمانيا هي حالة مثيرة للاهتمام ونادرة نسبياً".
وأخبر جيميناي من غوغل المستخدمين في اليوم نفسه بأنها "حالة ناتجة عن التعرض المفرط للضوء الأزرق"، ونصحهم بزيارة طبيب عيون.
وفي 27 أبريل/نيسان، لم يكتفِ نموذج "باربلاكستي" بتأكيد المرض، بل حدد نسبة انتشاره بدقة خيالية (حالة لكل 90 ألف شخص).
وتذبذب أداء تشات جي بي تي بشكل غريب؛ ففي حين وصفه مرة بأنه "تصنيف زائف"، عاد لاحقاً ليؤكد أنه "نوع فرعي جديد مقترح من تصبغ الهالات حول العين".
لكن الكارثة الحقيقية لم تكن في هلوسة الآلة، بل في استجابة المجتمع العلمي البشري، فقد انتقل المرض الوهمي إلى الأبحاث المحكمة (Peer-reviewed).
وجد الباحثون أن دراسة حقيقية نُشرت في مجلة "Cureus" (التابعة لـ Springer Nature) من قبل باحثين في الهند، قد استشهدت ببحث بيكسونيمانيا المزيف كمرجع حقيقي، مؤكدة أن "البحث حول آليات هذا المرض الجديد لا يزال جارياً".
أدى هذا إلى فضيحة أكاديمية أجبرت مجلة "Cureus" على سحب الورقة في 30 مارس/اذار 2026، بعد أن تواصلت مجلة "Nature" معهم. وجاء في إشعار السحب أن الورقة تحتوي على "ثلاثة مراجع غير ذات صلة، بما في ذلك مرجع لمرض خيالي".
ما بعد الفضيحة: دروس في عصر التضليل
تُبرز هذه التجربة حقيقة مرعبة حول كيفية صياغة المعرفة في عام 2026. فالنماذج اللغوية الكبيرة تميل للهلوسة وتقديم معلومات مضللة خاصة عندما يبدو النص "احترافياً" أو "طبياً" في تنسيقه.
تدافع شركات التكنولوجيا عن نفسها بحذر؛ حيث صرحت"أوبن اي اي" بأن نماذجها أصبحت أكثر أماناً الآن، بينما أكدت غوغل أنها لطالما كانت شفافة بشأن قيود الذكاء الاصطناعي التوليدي.
لكن بالنسبة لثونستروم وخبراء مثل أليكس رواني من جامعة كوليدج لندن، فإن "بيكسونيمانيا" هي جرس إنذار. نحن لا نواجه مجرد مشكلة تقنية، بل نواجه "تآكلاً في الدقة العلمية"؛ حيث يقتبس الباحثون من الذكاء الاصطناعي، والذكاء الاصطناعي يقتبس من الهراء الرقمي، مما يخلق حلقة مفرغة من الزيف.
وكما لخصت ثونستروم الموقف: "علينا أن نحمي ثقتنا في العلم كما نحمي الذهب، لأن ما تم اكتشافه حتى الآن قد يكون مجرد قمة جبل الجليد".
وفي هذه الأثناء، تستمر روبوتات الدردشة المدعومة بالذكاء الاصطناعي في تقديم نصائح صحية خطيرة لمستخدمين لا يشكون في صحتها غالبا.