رافعة جديدة للتقدم تفوق سابقاتها، ولكنها مصحوبة بأخطار متزايدة قد تتجاوز كل الحدود إن لم توضع ضوابط لها. هذا ما يفعله الذكاء الاصطناعي في نسخته الأحدث التي ازداد في عام 2023 إدراك أخطارها، أو ما تيسر معرفته منها.
ليس جديدا هذا التناقض. يعرف العالم مثله بأشكالٍ مختلفة منذ ظهور العلم الحديث، وما صاحبه من ابتكاراتٍ تقنية. علمٌ غيَّر العالم، ونقلت تقنياته حياة البشر إلى الأفضل في كثير من جوانبها. ولكن إساءة استخدامه خصمت، وما زالت، من منافعه. وما الأسلحة التى تُطوَّر طول الوقت اعتمادا على تقدم العلم وتقنياته إلا مثال واحد، لكنه واضح بذاته. وتفسير ذلك أن التطور العلمي والتقني لم يواكبه تطور إنساني مماثل، بل رافقه تراجع أخلاقي وقيمي وانطفاء روحي كان، ومازال، من أهم عوامل الأخطار التي بلغت ذروة جديدة في 2023، ومن بينها ما يترتب على "الذكاء الاصطناعي التوليدي" (Generative) وروبوتاته القابلة لنوع من التعلم الذاتي قد يقود في وقت ربما لا يكون طويلا إلى "استقلال" بعضها عن صانعيها.
إنه في عبارة واحدة "الذكاء الاصطناعي الأكثر ذكاء حتى الآن"، والذي يتوقع بعض العلماء والخبراء أن اللحظة التي سيصل فيها إلى "الاستقلال" عن البشر قد تكون على بُعد سنوات وليست عقودا. ومن أشهرهم جيفري هينتون، أحد أهم العلماء في مجال استخدام الشبكات العصبية في التعلم الآلي والإدراك الحسي؛ فقد أعرب في مايو/أيار 2023 عن مخاوفه من أن تصل الروبوتات القابلة للتعلم الذاتي إلى مستوى الذكاء البشري، وتتفوق عليه في مجالات مثل تحليل البيانات وإنشاء المحتوى. ودعا الشركات المنتجة لها إلى إدراك المخاطر. ولكي يتحدث بحرية عن مخاوفه، استقال من عمله في شركة "غوغل".
أهم ما يتوقعه القلقون هو أن التطور النوعي الذي بدأ منذ أواخر 2022، يفتح الباب أمام نقلة كبرى تنقل تقنيات الذكاء الاصطناعي من مرحلة المهام المحددة إلى حالة الذكاء العام أو الواسع النطاق
ولا ننسى أن بعض من يدركون خطر بلوغ الذكاء الاصطناعي التوليدي هذا المبلغ لا يقدرون على الإفصاح، لأنهم يعملون في شركات تتسابق، وتسابق الزمن، لتطوير برامج وتطبيقات أحدث وأحدث. ويكتفي البعض منهم بتحذير عام مثل أبريل شميدت الذي نبه في منتصف 2023 إلى أن الذكاء الاصطناعىي التوليدي قد يُشكَّل خطرا وجوديا.
ولعل أهم ما يتوقعه القلقون هو أن التطور النوعي الذي بدأ منذ أواخر 2022، مع دخول برنامج المحادثة "تشات جي بي تي" الخدمة، يفتح الباب أمام نقلة كبرى تنقل تقنيات الذكاء الاصطناعي من مرحلة المهام المحددة إلى حالة الذكاء العام أو الواسع النطاق. وستكون هذه النقلة بداية عصر جديد ربما تكتمل قبل منتصف القرن الحالي عندما يصل هذا الذكاء إلى لحظة الاستقلال أو التفرد، التي يصعب الآن تصور ما بعدها لأن تقنياته ستتصرف عندها بطرق لا تنطبق عليها القواعد التي نعرفها الآن.
والحال أن دخول برنامج روبوتات المحادثة المتقدمة جدا "تشات جي بي تي" الخدمة في نوفمبر/تشرين الثاني 2022 كان نقطة التحول الأهم باتجاه إدراك بعض جوانب هذا الخطر. وخلال أقل من عام طُور هذا البرنامج أربع مرات. ولهذا عقد مجلس الأمن، للمرة الأولى في تاريخه، جلسة في 18 يوليو/تموز الماضي لمناقشة هذا الموضوع تحت عنوان: "الذكاء الاصطناعي.. الفرص والأخطار للسلام والأمن الدولي". وتحدث فيها الأمين العام للأمم المتحدة عما سماها الاستخدامات الضارة لتقنيات هذا الذكاء في أعمال إرهابية أو إجرامية أو توظيفها لمصلحة دولة ضد غيرها، وتطرقت النقاشات في الجلسة إلى كيفية تجنب وصول هذه الاستخدامات إلى مستويات مرعبة من الأضرار والصدمات على نطاق يفوق التصور، بما في ذلك ما قد ينتج من التفاعل بين الذكاء الاصطناعى والأسلحة النووية أو التقنيات البيولوجية والعصبية وغيرها.
من أهم الأسئلة المطروحة في هذا السياق سؤال عن أثر وصول معدات عسكرية إلى حالة الاستقلال اعتمادا على التعلم الذاتي بواسطة برامج ذكاء اصطناعي توليدي
لقد بدأ استخدام الذكاء الاصطناعي لأغراض عسكرية يثير مخاوف ويدفع إلى بحث ما يمكن أن ينتج عنه، فأُجريت دراسات عدة من أبرزها دراسة نشرها مركز تكنولوجيا الأمن القومي في الولايات المتحدة شهر يناير/كانون الثاني 2023 عن أثر هذا الذكاء في مستقبل استراتيجيات الدفاع. ومن أهم الأسئلة المطروحة في هذا السياق سؤال عن أثر وصول معدات عسكرية إلى حالة الاستقلال اعتمادا على التعلم الذاتي بواسطة برامج ذكاء اصطناعي توليدي؛ فأخطار هذا الذكاء الأكثر ذكاء حتى الآن ليست كلها محتملة أو متوقعة في المستقبل. بعضها صار واقعا مُعاشا. ويمكن الإشارة، على سبيل المثال لا الحصر، إلى أربعة من هذه الأخطار.
أولها صعوبة التمييز بين الحقيقي والمزيف أو المفبرك في أخبار أو صور تُتداول على نطاق واسع، ومن ثم ازدياد الأخبار الزائفة (FAKE NEWS)، والصور المصنوعة التي تؤدي إلى خداع أو تضليل، فضلا عن نشر الكراهية نتيجة "فبركات" عن أعراق وأديان وثقافات بأشكال آخذة في ازدياد.
والثاني ازدياد قدرة مهاجمي المواقع الإلكترونية "الهاكرز" على تنفيذ هجمات أكثر فاعلية، واختراق برامج وتطبيقات حساسة ومؤمّنة جيدا، بحيث لم يعد السؤال الآن: هل يُخترق هذا البرنامج أو التطبيق؟ بل: متى يتعرض للاختراق؟
والثالث ثبوت أن تهديد الذكاء الاصطناعي التوليدي للأمان الوظيفي لا يقتصر على وظائف يدوية أو بسيطة لا تحتاج إلى تخصص أو مهارة. وظهر هذا بوضوح عندما قررت نقابتا الممثلين وكتّاب السيناريو في هوليوود تنفيذ إضراب استمر لعدة أشهر خلال 2023، للمطالبة بضمانات تحفظ حقوقهم بعد أن بدأت شركات إنتاج واستوديوهات في تجريب سيناريوهات مُولّدة آليا، والاتفاق مع شركات مُنتجة لتقنيات الذكاء الاصطناعي التوليدي لتطوير برامج تمكَّنها من صناعة أعمال درامية بأقل اعتماد ممكن على الممثلين عبر التقاط صور رقمية مُفصَّلة لحركات وجوههم وإنتاج روبوتات تشبههم للقيام بأدوارهم.
ورابعها إمكانية اعتماد طلاب على برامج مثل "تشات جي بي تي" في إنجاز واجباتهم المدرسية والجامعية، وفى أداء الاختبارات، الأمر الذي يمكن أن ينتهى إلى تقويض وظيفة التعليم، وتراجع القدرة على التمييز بين طلاب متفوقين وغيرهم. ولهذا طلبت هيئات مسؤولة عن التعليم في بلاد عدة من شركات تُنتج تقنيات الذكاء الاصطناعى تطوير برامج تسمح للمُعلمين ومُصَّحِحي الاختبارات بالتمييز بين البشري والآلي.
قوة الشركات المنتجة تُمكّنها من مواصلة الاندفاع باتجاه تطوير التقنيات الأكثر ذكاء بلا حدود
غير أن الخطر الذي ربما يفوق غيره هو استسهال بعض مُستخدمي الذكاء الاصطناعي الاعتماد عليه في اتخاذ قراراتهم أو تحديد خياراتهم. وهذا خطر مرشح للتوسع بمقدار زيادة فاعلية الخوارزميات المستخدمة في تقنياته.
وربما يكون جوهر التحدي قي مطلع 2024 هو أن منافع الذكاء الاصطناعي الكثيرة، والمعروفة بدرجات متفاوتة لكل من يستخدم تقنياته الأحدث أو الأكثر ذكاء (التوليدية) وما قبلها أيضا، تحجب الاهتمام بوجهه الآخر الخطير.
والمتوقع أن يزداد هذا التحدي في العام الجديد لأن قوة الشركات المنتجة تُمكّنها من مواصلة الاندفاع باتجاه تطوير التقنيات الأكثر ذكاء بلا حدود، حتى إذا كان رؤساء بعضها لا يمانعون تدخلات تشريعية في هذا المجال، مثل الرئيس التنفيذي لشركة "أوبن آي" (OPEN-I) سام ألتمان الذي تحدث أمام الكونغرس الأميركي في مايو/أيار 2023 عن الحاجة إلى تشريعات يُتفق على محتواها.
ولكن التدخل التشريعي وإصدار قوانين لضبط تطور الذكاء الاصطناعىي، وغيرها من الأفكار التي طُرحت في هذا المجال مثل تأسيس هيئة دولية للرقابة، على غرار الوكالة الدولية للطاقة الذرية، بقيت حتى نهاية العام في طور النوايا الحسنة.