لنأخذ مثل "تشات جي. بي. تي."؛ بعيد إطلاقه بشهرين، نجح التطبيق غير المسبوق في استقطاب 100 مليون مستخدم، وهو رقم قياسي، وقد أعاد ذلك إلى الواجهة الأبحاث التي قامت وتقوم بها "غوغل"في شأن النماذج اللغوية الكبيرة والتوليدية التي يعتمد عليها "تشات جي. بي. تي."، إلا أنها لم تكن الأولى في هذا النجاح. لكن ما لبثت نماذج مماثلة، ومنها لـ"غوغل" و"مايكروسوفت" و"ميتا" وغيرها ذات خاصيات منافسة، أن أبصرت النور سريعا، مما دفع "أوبن إيه. آي." الشركة الأم وراء "تشات جي. بي. تي." الى أن تطلق نموذجا أكثر حداثة ومرونة لجهة تطويعه لحاجات الشركات الفردية.
يمكن أن ينسب هذا التطويع إلى مفهوم "دمقرطة الإبتكار" (Democratizing Innovation) الذي صاغه إريك فون هيبل من معهد "ماساتشوستس" للتكنولوجيا، والذي كان، منذ منتصف سبعينات القرن العشرين، يبحث ويكتب عن إمكان قيام مستخدمي المنتجات والخدمات بتطوير ما يحتاجون إليه بأنفسهم بدلا من الاعتماد ببساطة على الشركات للقيام به.
أربع مسائل تتحكم بالذكاء ومستجداته
أمام هذا المشهد، ربما يعجز العقل عن تصور واضح لمستقبل الذكاء الاصطناعي المتغير دائما، إلا أن هناك أربع مسائل قد تفرض تأثيرا ما، يسمح للبشر بالحفاظ على السيطرة على هذه التقنية.
أولى هذه المسائل، هي التقنية نفسها، هل ستتيحها الشركات المطورة للجميع، وعلى نحو كامل، أم ستبقى حكرا على هذه الشركات بادعاء أن ذلك سيمكنها من التحكم بها درءا للأخطار التي يمكن أن تنجم عن استخدامها، خصوصا في ظل عدم الاستعداد الكافي لإدارة هذه الأخطار المحتملة وكيفية تجنبها؛ من الأخطار السيبرانية والسلوكيات المتحيزة وانتهاك الخصوصية، إلى سيطرة الخوارزميات على عقول البشر وتلقينهم معلومات مضللة أو خطيرة، مثل كيفية صنع سلاح بيولوجي، إضافة إلى سرقة نصوصهم وفنونهم ورسوماتهم وأشعارهم، وكذلك وظائفهم بمئات الملايين ربما، والأسوأ من ذلك، تدمير وجودهم.
أما المسألة الثانية، فهي ليست بجديدة، وتطرح عند كل مفترق تقني يثبت أداء أكثر فاعلية وإنتاجا من البشر يدفع لاستبدالهم بالآلة، فهل سنرى مثلا خمسة ملايين مبرمج هندي بلا وظائف خلال عامين، كما يدّعي الرئيس التنفيذي لشركة "ستابيليتي إيه. آي." في لندن، كون البرامج تنشأ ذاتيا بالذكاء الاصطناعي؟
المسألة الثالثة وهي الأهم، تتمثل في الضوابط والقوانين التي ستحكم عمل الشركات المنتجة للذكاء الاصطناعي وللتقنية نفسها، على أن تكون نافذة وعادلة وفق معايير تطبق على نحو جماعي بدءا من الرقابة وصولا إلى المحاسبة.
المسألة الرابعة والأخيرة ترتبط بالبشر أنفسهم وكيفية تعاملهم مع الآلة، ومدى تمتعهم بالمسؤولية الأخلاقية عند استخدامهم تقنية الذكاء الاصطناعي التوليدي ومواكبتهم تغيراتها، والاستفادة مما توفره من قيمة لإدارة شؤونهم بطريقة أسهل، وتحسين معيشة البشر الى الأفضل.
ماذا يحمل المستقبل بين معسكرين؟
لا يعلم، حتى العلماء، حقيقة ماذا يحمل مستقبل الذكاء الاصطناعي، ومن الصعب التنبؤ بشكل مطلق كيف سيكون عليه العالم في 2024 أقله، لأن سنة واحدة، كفيلة بأن تشهد تقدما هائلا، وغير محسوب يوازي سنين أو عقودا من الاكتشاف والتمرس في ما يتعلق بالتقنيات التي نعهدها.
كما أن جهوزية الشركات الكبيرة لاعتماد الذكاء الاصطناعي التوليدي قد تكون أضحت متقدمة جدا، بعد أن أمضت معظم العام المنصرم في مرحلة تجريبية لهذه التقنية. وقد ضخ أصحاب رؤوس الأموال الاستثمارية أكثر من 36 مليار دولار في الذكاء الاصطناعي التوليدي في 2023، أي أكثر من ضعف ما كان عليه في عام 2022.
إنطلاقا من الواقع الحالي، والانقسام العميق بين معسكرين لمطوري الذكاء الاصطناعي، الأول ممن يعبرون عن مخاوفهم من التطور السريع غير المضبوط لهذه التقنية وبالتالي يدعون لأن تبقى مصادر النماذج، أو "الأكواد" التي يطلقونها خاصة بهم وغير متاحة للاستخدام المفتوح. يقابله المعسكر الثاني، ممن يرون في الذكاء الاصطناعي فرصا لقفزة تقدمية سريعة في شتى المجالات، وبالتالي يعارضون إعاقتها من خلال إتاحة مصادر نماذجهم لأطراف آخرين يمكنهم البناء عليها حيث تفوق فوائدها الإنسانية والعملية والتجارية الأخطار الوجودية التي يمكن أن تطرحها هذه التقنية. فمن خلال هذه النظرية، أطلقت "أوبن. إيه. آي." أخيرا نسخة أكثر تقدما من "تشات جي. بي. تي."، هي "GPT-4"، توفر لمستخدميها، لا سيما الشركات، إمكان بناء برمجيات وتطبيقات دردشة آلية خاصة بهم. كذلك فعلت "ميتا" عبر إطلاق نموذج الذكاء الاصطناعي التوليدي "لاما"، و"غوغل" التي أطلقت في ديسمبر/كانون الأول الماضي نموذج "جيميني".
فالنماذج المفتوحة المصدر تقلد أداء "GPT-4" عندما تدرب بحرفية وانتقائية، وهذا يعتبر أمرا جيدا في تحفيز المنافسة والتوصل إلى نماذج جديدة ومبتكرة في شتى المجالات. لكنه يعني أيضا أن الخطر الكارثي الذي يبقي النخبة التقنية متيقظة أصبح أكثر واقعية.
يقول كبير علماء الذكاء الاصطناعي في "ميتا" يان لوكان، إن النماذج المفتوحة المصادر حفزت المنافسة ومكّنت مجموعة أكبر من الأطراف من بناء أنظمة الذكاء الاصطناعي واستخدامها. إلا أن المنتقدين يخشون أن يؤدي وضع نماذج الذكاء الاصطناعي التوليدي في أيدي جهات فاعلة غير مسؤولة إلى تعزيز أخطار التضليل والحرب السيبرانية والإرهاب البيولوجي. ويعلل لوكان وجهة نظره بتكرار السيناريو نفسه في بداية عصر الإنترنت، وأن هذه التكنولوجيا ازدهرت فقط لأنها ظلت منصة مفتوحة وحافظت على لا مركزيتها.
تحالف الذكاء المنفتح والآمن والمسؤول
هذا المنطق دفع بـ "ميتا" و "أي. بي. أم" إلى إطلاق تحالف الذكاء الاصطناعي مطلع ديسمبر/كانون الأول المنصرم لـ "تعزيز الذكاء الاصطناعي المنفتح والآمن والمسؤول"، وهو عبارة عن تجمع دولي يضم أكثر من 50 منظمة تشارك في أبحاث تطوير التكنولوجيا، من شركات التكنولوجيا والجامعات الرائدة في مجال الأبحاث والوكالات العلمية، وأعضاء مثل شركة "أدفانسد مايكرو ديفايسز" و "ديل تكنولوجيز" و "إنتل" و"ناسا" و"كليفلند كلينيك" وغيرها. أما الهدف الرئيس لهذا التجمع، فهو إكساب "ميتا" النفوذ من خلال الترويج واتباع نهج المصدر المفتوح، ومساعدتها في مواجهة كبار منتجي نماذج الذكاء الاصطناعي ذات المصادر المغلقة مثل "أوبن إيه. آي." و"غوغل" و"أنثروبيك".
المفارقة أن يان لوكان كان قد فاز بجائزة "تورينغ" لعام 2018 إلى جانب زميليه جيفري هينتون ويوشوا بنجيو، عن أبحاثهم في "التعلم العميق" (Deep Learning) لهذه التكنولوجيا. هينتون، الذي كان يلقب برجل الذكاء الاصطناعي الأول لدى "غوغل" قبل استقالته في مايو/أيار الماضي لأسباب تتعلق بمخاوف من "تهور" الشركة في سباق الذكاء الاصطناعي المحموم الذي تنتهجه.
يصر لوكان على أن لا علاقة للذكاء بالرغبة في الهيمنة، إذ "لو كان صحيحا أن أذكى البشر يريدون السيطرة على الآخرين، لكان ألبرت أينشتاين وغيره من العلماء أغنياء وأقوياء، لكنهم لم يكونوا كذلك". فبالنسبة إليه، وهو العالم ذو المكانة الرائدة والموثوق بها في مجال الذكاء الاصطناعي، سيساعد تفوق ذكاء الآلة البشر على مواجهة التحديات الكبيرة، مثل مكافحة تغير المناخ وعلاج الأمراض، معتبرا هذا الواقع مثيرا حيث ستكون الآلة تحت سيطرة الإنسان ومنفذة لأوامره.