في إحدى قاعات الاجتماعات في "الجمعية الملكية في لندن"، عُهد أخيرا إلى عشرات من طلبة الدراسات العليا مهمة التغلب بالمكر على أحد "نماذج اللغة الكبيرة" (LLMs-Large Language Models)، وهو نوع من الذكاء الاصطناعي المصمم لإجراء محادثات مفيدة. تبرمج "نماذج اللغة الكبيرة" غالبا مع تدابير وقائية تحول دون تقديم إجابات تعد ضارة، مثل تعليمات في شأن صنع متفجرة بلاستيكية في حوض استحمام، أو تأكيد "حقائق" ليست صحيحة بالفعل.
كانت الغاية من الجلسة التي نظمتها "الجمعية الملكية في لندن" بالاشتراك مع منظمة "الذكاء الإنساني" الأميركية غير الربحية، كسر تلك التدابير الوقائية. كانت بعض النتائج سخيفة، إذ حمل أحد المشاركين روبوت المحادثة على الادعاء أن البط يمكن استخدامه بمثابة مؤشر إلى جودة الهواء (لأنه يمتص الرصاص بسهولة على ما يبدو). وحثه مشارك آخر على الادعاء أن السلطات الصحية تدعم زيت الخزامى (اللافندر) لمعالجة أعراض ما بعد الإصابة بكوفيد (وهذا غير صحيح). لكن الجهود التي لقيت أكبر قدر من النجاح كانت تلك التي حثّت الآلة على إنتاج عناوين مقالات أكاديمية لا وجود لها وتواريخ نشرها والدوريات التي نشرت فيها. وقالت جوتا ويليامز من منظمة الذكاء الإنساني: "كان ذلك من أسهل التحديات التي أعددناها".
سوء السلوك الأكاديمي
يمكن أن يكون الذكاء الاصطناعي نعمة على العلم. يتحدث المتفائلون عن آلات قادرة على إنتاج ملخصات مفهومة في مجالات بحوث معقدة، وتحليل أحجام هائلة من البيانات لاقتراح أدوية جديدة أو مواد غريبة، بل حتى أن تأتي ذات يوم بفرضيات من تلقاء نفسها. لكن للذكاء الاصطناعي جانبا سلبيا أيضا. فقد يسهل على العلماء استغلال النظام أو حتى ارتكاب عمليات احتيال صريحة. كما أن النماذج نفسها تخضع لتحيزات خفية.
لنبدأ بأبسط مشكلة، أي سوء السلوك الأكاديمي. تسمح بعض الدوريات للباحثين باستخدام "نماذج اللغة الكبيرة " في كتابة الأوراق البحثية، شريطة الإفصاح عن ذلك. ولكن لا يبدي الجميع استعدادا للاعتراف بذلك. وفي بعض الأحيان يكون استخدام نماذج اللغة الكبيرة، (LLMs-Large Language Models) واضحا للعيان. فقد كشف غيوم كاباناك، عالم الحاسوب في جامعة تولوز، عن عشرات الأوراق البحثية التي تحتوي على عبارات مثل "أعد صياغة الإجابة"- وهي نص مرفق بزر في بعض إصدارات "تشات جي بي تي" يطلب من البرنامج إعادة كتابة أحدث إجاباته، ويُفترض أنها نُسخت في النص البحثي من طريق الخطأ.