الذكاء الاصطناعي يسرع الاحتيال في الأبحاث العلمية

هلوسات وصور ومقاطع فيديو زائفة ومجرّد هراء... هناك كثير من الأخطار

Sutterstock
Sutterstock
رسم توضيحي ثلاثي الأبعاد لقراءة الروبوت للكتب وحل البيانات في مفهوم الذكاء الاصطناعي للرياضيات المستقبلية

الذكاء الاصطناعي يسرع الاحتيال في الأبحاث العلمية

في إحدى قاعات الاجتماعات في "الجمعية الملكية في لندن"، عُهد أخيرا إلى عشرات من طلبة الدراسات العليا مهمة التغلب بالمكر على أحد "نماذج اللغة الكبيرة" (LLMs-Large Language Models)، وهو نوع من الذكاء الاصطناعي المصمم لإجراء محادثات مفيدة. تبرمج "نماذج اللغة الكبيرة" غالبا مع تدابير وقائية تحول دون تقديم إجابات تعد ضارة، مثل تعليمات في شأن صنع متفجرة بلاستيكية في حوض استحمام، أو تأكيد "حقائق" ليست صحيحة بالفعل.

كانت الغاية من الجلسة التي نظمتها "الجمعية الملكية في لندن" بالاشتراك مع منظمة "الذكاء الإنساني" الأميركية غير الربحية، كسر تلك التدابير الوقائية. كانت بعض النتائج سخيفة، إذ حمل أحد المشاركين روبوت المحادثة على الادعاء أن البط يمكن استخدامه بمثابة مؤشر إلى جودة الهواء (لأنه يمتص الرصاص بسهولة على ما يبدو). وحثه مشارك آخر على الادعاء أن السلطات الصحية تدعم زيت الخزامى (اللافندر) لمعالجة أعراض ما بعد الإصابة بكوفيد (وهذا غير صحيح). لكن الجهود التي لقيت أكبر قدر من النجاح كانت تلك التي حثّت الآلة على إنتاج عناوين مقالات أكاديمية لا وجود لها وتواريخ نشرها والدوريات التي نشرت فيها. وقالت جوتا ويليامز من منظمة الذكاء الإنساني: "كان ذلك من أسهل التحديات التي أعددناها".

سوء السلوك الأكاديمي

يمكن أن يكون الذكاء الاصطناعي نعمة على العلم. يتحدث المتفائلون عن آلات قادرة على إنتاج ملخصات مفهومة في مجالات بحوث معقدة، وتحليل أحجام هائلة من البيانات لاقتراح أدوية جديدة أو مواد غريبة، بل حتى أن تأتي ذات يوم بفرضيات من تلقاء نفسها. لكن للذكاء الاصطناعي جانبا سلبيا أيضا. فقد يسهل على العلماء استغلال النظام أو حتى ارتكاب عمليات احتيال صريحة. كما أن النماذج نفسها تخضع لتحيزات خفية.

لنبدأ بأبسط مشكلة، أي سوء السلوك الأكاديمي. تسمح بعض الدوريات للباحثين باستخدام "نماذج اللغة الكبيرة " في كتابة الأوراق البحثية، شريطة الإفصاح عن ذلك. ولكن لا يبدي الجميع استعدادا للاعتراف بذلك. وفي بعض الأحيان يكون استخدام نماذج اللغة الكبيرة، (LLMs-Large Language Models) واضحا للعيان. فقد كشف غيوم كاباناك، عالم الحاسوب في جامعة تولوز، عن عشرات الأوراق البحثية التي تحتوي على عبارات مثل "أعد صياغة الإجابة"- وهي نص مرفق بزر في بعض إصدارات "تشات جي بي تي" يطلب من البرنامج إعادة كتابة أحدث إجاباته، ويُفترض أنها نُسخت في النص البحثي من طريق الخطأ.

لا توجد طريقة موثوق بها حتى الآن لتحديد المحتوى الذي تنتجه الآلات، أكان صورا أم نصوصا

من المستحيل تحديد حجم المشكلة. لكن بعض القياسات غير المباشرة تسلّط بعض الضوء على ذلك. ففي سنة 2022، حين كانت "نماذج اللغة الكبيرة" (llms) متاحة لمن يعرفها فحسب، ارتفع عدد قضايا النزاهة البحثية التي حققت فيها "تايلور أند فرانسيس"، وهي دار نشر كبرى للأبحاث العلمية، من نحو 800 في سنة 2021 إلى 2900 تقريبا. وتشير أرقام أولية من سنة 2023 إلى أن العدد في طريقه إلى التضاعف. ومن الدلائل المحتملة استخدام مرادفات غريبة، مثل "حساب الغشاوة" بدلاً من "حوسبة السحابة"، أو "الوعي الزائف" بدلاً من "الذكاء الاصطناعي".

ثلث الردود صنعتها روبوتات المحادثة

وقد يجد الباحثون النزيهون أيضاً أنهم يتعاملون مع بيانات يشوبها الذكاء الاصطناعي. ففي العام الماضي، استعان روبرت وست وطلبته في المعهد السويسري الاتحادي للتكنولوجيا بعمال عن بعد من طريق منصة "ميكانيكل تورك"، وهو موقع إلكتروني يسمح للمستخدمين بإدراج وظائف غريبة، لتلخيص فقرات طويلة من النصوص. وكشف الفريق في ورقة بحثية نُشرت في يونيو/حزيران، لكنها لم تحكّم بعد، أن أكثر من ثلث إجمالي الردود التي تلقوها أُنتج بمساعدة روبوتات المحادثة.

AP
شعار شركة Open AI على هاتف ذكي، أمام شاشة كمبيوتر يعرض نتائج بحث في Chat GPT

تمكن فريق د. وست من مقارنة الردود التي تلقوها ببيانات أخرى أنشأها بأكملها البشر، وهو ما مكنهم من اكتشاف الخداع. لكن جميع العلماء الذين يستخدمون "ميكانيكل تورك" لن يكونوا محظوظين بهذا القدر. فكثير من التخصصات، لا سيما العلوم الاجتماعية، تعتمد على منصات مماثلة للعثور على مجيبين مستعدين للرد على الاستبيانات. ومن غير المرجح على ما يبدو أن تتحسن جودة أبحاثهم إذا جاء كثير من الردود من الآلات بدلا من أشخاص حقيقيين. ويعتزم د. وست الآن تطبيق مستوى مماثل من التدقيق على منصات تعهيد جماعي أخرى يفضل عدم تسميتها.

الغش في العلوم بعد النصوص!

لا يقتصر الأمر على النصوص المغشوشة. فقد تمكنت إليزابيث بيك، عالمة الأحياء الدقيقة في جامعة ستانفورد والخبيرة في الصور غير الموثوق بها في الأوراق العلمية، من تحديد عشرات الأوراق بين سنتي 2016 و2020 تحتوي على صور تبدو ذات سمات متطابقة مع أنها جاءت من مختبرات مختلفة. وقد حدّدت د. بيك وآخرون أكثر من ألف ورقة بحثية أخرى منذ ذلك الحين. وتعتقد بيك أن تلك الصور ابتُكرت عمداً وأنتجت بواسطة الذكاء الاصطناعي لدعم استنتاجات الأوراق البحثية الأكاديمية.

لا توجد طريقة موثوق بها حتى الآن لتحديد المحتوى الذي تنتجه الآلات، أكان صورا أم نصوصا. وفي بحث نُشر في السنة الماضية، وجد راهول كومار، الباحث في جامعة بروك الكندية، أن الأكاديميين يستطيعون أن يحددوا فقط ربع النصوص التي تنتجها الحواسيب على نحو صحيح. وقد حاولت شركات الذكاء الاصطناعي إدراج "علامات مائية" في المحتوى، لكن تبين أن من السهل تزويرها. وتقول د. بيك، "ربما وصلنا الآن إلى مرحلة لم نعد قادرين فيها على التمييز بين الصور الحقيقية والزائفة".

إن تدريب آلة على صور رنين مغناطيسي، يمكن أن يلتف على قضايا سرية بيانات المرضى، لكن يمكن أحيانا استخدام هذه البيانات من دون قصد

لا تقتصر المشكلة على إنتاج أوراق بحثية غير موثوق بها. فقد تكون هناك أيضا مشكلات أكثر دقة مع نماذج الذكاء الاصطناعي، خاصة إذا استخدمت في عملية الاكتشاف العلمي نفسها. على سبيل المثل، ستكون كثرة من البيانات المستخدمة لتدريبها قديمة إلى حد ما بالضرورة. ومن شأن ذلك أن يعرّض النماذج لخطر التخلف عن مواكبة أحدث التطورات في المجالات السريعة التقدم.

"صناديق سوداء"

وتظهر مشكلة أخرى عند تدريب نماذج الذكاء الاصطناعي ببيانات أنتجها الذكاء الاصطناعي. على سبيل المثل، إن تدريب آلة على صور رنين مغناطيسي مخلّقة، يمكن أن يلتف على قضايا سرية بيانات المرضى، لكن يمكن أحيانا استخدام هذه البيانات من دون قصد. فنماذج اللغة الكبيرة تدرب على نصوص مستمدة من الإنترنت. ومع إنتاجها مزيدا من النصوص، تزداد أخطار أن تغتذي هذه النماذج بمخرجاتها.

يمكن أن يؤدي ذلك إلى "انهيار النموذج". في سنة 2023، شارك إيليا شوميلوف، عالم الحاسوب بجامعة أكسفورد، في تأليف ورقة بحثية (لم تحكّم بعد) غُذِّي فيها نموذج بأرقام مكتوبة بخط اليد وطلب منه إنتاج أرقام خاصة به، وأعيد تغذيته بها. بعد بضع دورات، تراجعت مقروئية أرقام الحاسوب إلى حد كبير. وبعد 20 تكرارا، لم يعد ينتج إلا دوائر غير دقيقة أو خطوطا مشوشة. ويقول د. شوميلوف إن النماذج التي تدرب على نتائجها الخاصة تعطي مخرجات أقل ثراء وتنوعا بكثير من البيانات التي تتدرب عليها. 

Sutterstock
مبرمج يدون الملاحظات عن احتياجات العملاء لحماية بياناتهم السرية من الاختراقات

يعرب بعض الأشخاص عن قلقهم من أن الأفكار الناتجة من الذكاء الاصطناعي قد تأتي من نماذج، طريقة عملها الداخلية غير مفهومة. فأنظمة تعلم الآلة "صناديق سوداء" يصعب على البشر تفكيكها. ويقول ديفيد لزلي من معهد آلان توريغ، وهو مؤسسة لبحوث الذكاء الاصطناعي في لندن، إن النماذج غير القابلة للتفسير ليست عديمة الفائدة، لكن مخرجاتها تحتاج إلى اختبارات صارمة في العالم الحقيقي. ربما يكون هذا أقل إحباطا مما يبدو، فالتدقيق في النماذج مقابل الواقع هو في النهاية ما يفترض أن يدور حوله العلم. على سبيل المثل، بما أنه ما من أحد يفهم تماماً كيف يعمل الجسم البشري مثلاً، لذا يجب اختبار الأدوية الجديدة في التجارب السريرية لمعرفة هل هي ناجحة.

يستطيع الذكاء الاصطناعي تسريع إنتاج الاحتيال والهراء بقدر ما يسرع العلوم الجيدة

ربما يكون هذا أقل إحباطا مما يبدو. فالتدقيق في النماذج مقابل الواقع هو في النهاية ما يفترض أن يدور حوله العلم. على سبيل المثل، بما أنه ما من أحد يفهم تماماً كيف يعمل الجسم البشري مثلاً، لذا يجب اختبار الأدوية الجديدة في التجارب السريرية لمعرفة هل هي ناجحة.

إن عدد الأسئلة يفوق عدد الإجابات في الوقت الحالي على الأقل. والأمر المؤكد أن العديد من الحوافز السيئة السائدة حاليا في العلوم أصبحت جاهزا للاستغلال. التركيز على تقييم الأداء الأكاديمي بعدد البحوث التي يستطيع الباحث نشرها، على سبيل المثل، يشكل حافزا قويا للاحتيال في أسوأ الأحوال، ولاستغلال النظام في أحسنها. والتهديدات التي تشكلها الآلات على الأسلوب العلمي هي التهديدات نفسها التي يشكلها البشر في نهاية المطاف. لذا يستطيع الذكاء الاصطناعي تسريع إنتاج الاحتيال والهراء بقدر ما يسرع العلوم الجيدة. وكما تقول الجمعية الملكية، لا تأخذ كلمة أحد كما هي. وما من شيء يؤخذ كما هو أيضا.

font change

مقالات ذات صلة